JP5658618B2 - 操作入力装置、プログラム - Google Patents

操作入力装置、プログラム Download PDF

Info

Publication number
JP5658618B2
JP5658618B2 JP2011109586A JP2011109586A JP5658618B2 JP 5658618 B2 JP5658618 B2 JP 5658618B2 JP 2011109586 A JP2011109586 A JP 2011109586A JP 2011109586 A JP2011109586 A JP 2011109586A JP 5658618 B2 JP5658618 B2 JP 5658618B2
Authority
JP
Japan
Prior art keywords
event
angle
unit
distance image
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011109586A
Other languages
English (en)
Other versions
JP2012242901A (ja
Inventor
古川 聡
聡 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2011109586A priority Critical patent/JP5658618B2/ja
Publication of JP2012242901A publication Critical patent/JP2012242901A/ja
Application granted granted Critical
Publication of JP5658618B2 publication Critical patent/JP5658618B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、対象物までの距離を画素値に持つ距離画像を用いることにより対象物が規定の動作を行っているか否かを判断し、その判断結果に応じて制御対象の対応制御を行う操作入力装置、およびこの操作入力装置を実現するためのプログラムに関するものである。
従来から、対象物までの距離を画素値に持つ距離画像を用いて対象物の動作を検出し、対象物の動作に応じて制御対象の対応制御を行うようにした入力装置が提案されている(たとえば、特許文献1参照)。特許文献1に記載された技術は、距離画像の中で距離の極小点を求め、極小点の位置変化に応じて制御対象に指示を与えている。すなわち、特許文献1に記載された技術は、距離の極小点を前方に差し出した指先の位置とみなし、指先の位置を追跡することによって、リモコン装置などを持つことなく、機器の操作を可能にしている。
また、近年では、タッチパネルを用いることにより、2次元平面上での指先やペン先の動きを検出し、検出した動きに応じて機器の操作を行う入力装置も実用化されている。
特許第3544739号公報
ところで、タッチパネルを用いる入力装置は、タッチパネルに触れる必要があり、たとえば、床上に置かれたテレビジョン受像機に対する操作を行うために用いようとすれば、テレビジョン受像機に触れる位置まで移動することになる。したがって、リモコン装置のように制御対象から離れた場所から制御の指示を与えることはできない。
一方、特許文献1に記載された技術を採用すれば、制御対象から離れた場所から制御の指示を与えることができる。しかしながら、特許文献1に記載された技術は、距離の極小点を指先の位置とみなし、かつ極小点の位置の変化を指先の位置の変化とみなしているから、識別可能な動きの種類は比較的少なくなる。
最近では、電子ブックやウェブ版の新聞が提供されており、この種のコンテンツに対応するために頁めくりの操作は必須になりつつある。タッチパネルで頁めくりの操作を行う場合は、2次元平面上で指先などを移動させるだけであり、また、特許文献1に記載の技術を採用したとしてもタッチパネルと同様の動きになる。つまり、人の自然な動きを画面上での頁めくりに対応付けることができない。
本発明は、手と前腕とに相当する対象物の動作を検出することによって、本や新聞の頁めくりを行う際の人の自然な動作に近い動きを認識できるようにした操作入力装置、およびこの操作入力装置を実現するためのプログラムを提供することを目的とする。
本発明に係る操作入力装置は、上述の目的を達成するために、手に相当する第1要素と前腕に相当する第2要素とについて距離画像の動画像を生成する距離画像生成手段と、第2要素の主軸の周りにおける第1要素の角度の変化を検出する角度検出部と、角度検出部が検出した角度が規定の検出範囲であるときに規定の動作が行われたと判断する動作判定部とを備えることを特徴とする。
本発明に係る操作入力装置は、少なくとも手に相当する第1要素と前腕に相当する第2要素とを含む対象物に関して対象物までの距離を画素値に持つ距離画像の動画像を生成する距離画像生成手段と、距離画像から第1要素に対応する領域と第2要素に対応する領域とを抽出するとともに第1要素において手のひらに相当する対象面を抽出する要素抽出手段と、要素抽出手段が抽出した第1要素と第2要素との位置および向きの変化を距離画像の動画像から抽出する動作抽出手段と、動作抽出手段が第1要素と第2要素との規定の動作を検出したときに制御対象への対応制御を行う制御手段とを備え、動作抽出手段は、距離画像により形成される3次元の仮想空間において、前記対象面の法線ベクトルの向きが第2要素の主軸の周りで回転する第1事象と、第2要素の主軸に沿った方向ベクトルの向きが変化する第2事象とを検出する事象検出部と、事象検出部が検出した第1事象における回転する角度および第2事象における変化する角度を検出する角度検出部と、事象検出部が第1事象および第2事象の検出を開始してから規定の判定時間内において角度検出部が検出した角度が規定の検出範囲であるときに前記規定の動作が行われたと判断する動作判定部とを備えることを特徴とする。
この操作入力装置において、事象検出部は、第1要素と第2要素との移動の向きを識別し、動作判定部は、事象検出部が識別した移動の向きに応じて動作の種類を識別することが好ましい。
この操作入力装置において、動作判定部は、角度検出部が検出した角度に対する検出範囲を設定する設定部を備えることが好ましい。
この操作入力装置において、設定部は、検出範囲を設定する設定モードと、検出範囲を使用して前記規定の動作を判断する使用モードとの2つの動作モードを有し、設定モードでは、対象物に前記規定の動作を複数回行わせたときに角度検出部が検出した角度に基づいて検出範囲を設定することが好ましい。
この操作入力装置において、要素抽出手段は、距離画像を用いて対象物に関して第1要素および第2要素を抽出した後、第1要素の主軸に沿う方向において当該主軸に直交する面内での最大幅を計測し、計測した最大幅の変化が規定条件を満たす位置を第1要素と第2要素との境界とみなすことが好ましい。
この操作入力装置において、要素抽出手段は、距離画像を用いて対象物に関して第1要素および第2要素を抽出した後、第1要素の主軸に沿う方向において当該主軸に直交する面内での曲率を計測し、計測した曲率の変化が規定条件を満たす位置を第1要素と第2要素との境界とみなすことが好ましい。
この操作入力装置において、要素抽出手段は、距離画像を用いて対象物に関して第1要素および第2要素を抽出した後、第1要素の主軸に沿う方向において第1要素と第2要素とを合計した長さ寸法に対して規定の比率で区分される位置を第1要素と第2要素との境界とみなすことが好ましい。
本発明に係るプログラムは、コンピュータを、手に相当する第1要素と前腕に相当する第2要素とについて距離画像の動画像を距離画像生成手段から取得するとともに、第1要素と第2要素との規定の動作を検出する演算処理装置として機能させるためのプログラムであって、コンピュータを、第2要素の主軸の周りにおける第1要素の角度の変化を検出する角度検出部と、角度検出部が検出した角度が規定の検出範囲であるときに規定の動作が行われたと判断する動作判定部とを備える演算処理装置として機能させるものである。
また、本発明に係るプログラムは、コンピュータを、少なくとも手に相当する第1要素と前腕に相当する第2要素とを含む対象物に関して対象物までの距離を画素値に持つ距離画像の動画像を生成する距離画像生成手段から距離画像を取得するとともに、第1要素と第2要素との規定の動作を検出したときに制御対象への対応制御を行う演算処理装置として機能させるためのプログラムであって、コンピュータを、距離画像から第1要素に対応する領域と第2要素に対応する領域とを抽出するとともに第1要素において手のひらに相当する対象面を抽出する要素抽出手段と、要素抽出手段が抽出した第1要素と第2要素との位置および向きの変化を距離画像の動画像から抽出する動作抽出手段と、動作抽出手段が第1要素と第2要素との規定の動作を検出したときに制御対象への対応制御を行う制御手段とを備え、動作抽出手段が、距離画像により形成される3次元の仮想空間において、前記対象面の法線ベクトルの向きが第2要素の主軸の周りで回転する第1事象と、第2要素の主軸に沿った方向ベクトルの向きが変化する第2事象とを検出する事象検出部と、事象検出部が検出した第1事象における回転する角度および第2事象における変化する角度を検出する角度検出部と、事象検出部が第1事象および第2事象の検出を開始してから規定の判定時間内において角度検出部が検出した角度が規定の検出範囲であるときに前記規定の動作が行われたと判断する動作判定部とを備える演算処理装置として機能させるものである。
本発明の構成によれば、手と前腕とに相当する対象物の動作を個別に検出し、本や新聞の頁めくりを行う際の人の自然な動作に近い動きを認識することができるから、使用者は操作方法を覚えなくとも頁めくりの際の普通の動作をするだけで、制御対象に対応制御を行わせることができるという効果がある。
実施形態を示すブロック図である。 同上の動作説明図である。 同上の動作説明図である。
以下に説明する操作入力装置は、図1に示すように、距離画像の動画像を生成する距離画像生成手段10と、距離画像生成手段10から距離画像を取得するとともに対象物の規定の動作を検出したときに制御対象への対応制御を行う演算処理装置20とを備える。演算処理装置20は、ハードウェア要素としてのコンピュータを備え、適宜のプログラムをコンピュータで実行することにより以下に説明する機能を実現する。
本実施形態では、距離画像生成手段10が認識対象とする対象物は、人体の手に相当する第1要素と、人体の前腕に相当する第2要素とを含んでいることを想定している。ただし、対象物は人型のロボットや人形であってもよく、第1要素が手として認識されかつ第2要素が前腕として認識される形状を有していれば、対象物が人体か否かは問わない。また、手や前腕は、露出していることが望ましいが、手にミトンが装着されている場合や、前腕が冬服の袖で覆われている場合でも、頁めくりの動きを認識することが可能である。したがって、屋内で使用する場合だけでなく、屋外であっても季節を問わずに頁めくりの動作を認識することが可能である。
距離画像生成手段10は、実空間における対象物までの距離を計測するセンサ部11と、センサ部11が計測した対象物までの距離を画素値に持つ距離画像を生成する距離演算部12とを備える。
センサ部11は、アクティブ型の構成とパッシブ型の構成とのいずれでも採用可能である。本実施形態のセンサ部11は、対象物が存在する空間に投光するとともに、空間に存在する物体からの反射光を受光し、投光から受光までの時間差に相当する情報を用いて物体までの距離を検出するアクティブ型の構成を備える。すなわち、センサ部11は、飛行時間(TOF=Time Of Flight)法により対象物までの距離を計測する。
以下では、センサ部11の一例として、発光源から空間に投光し、空間に存在する対象物からの反射光を撮像素子で受光するアクティブ型の構成を想定する。
発光源は、時間とともに強度が変化する強度変調光を投光し、対象物で反射され撮像素子で受光された強度変調光(反射光)と投光した強度変調光との位相差を、投光から受光までの時間差に相当する情報として用いる。変調光の変調波形は、正弦波が望ましいが、三角波、鋸歯状波、方形波などから選択することも可能である。また、変調光の周期は一定とする。
一方、撮像素子は、複数個の受光領域(画素)が2次元配列されたCCDイメージセンサやCMOSイメージセンサのような周知の構成のものが用いられる。ただし、撮像素子は、センサ部11に適する特別な構造を有するように設計されていてもよい。撮像素子の受光のタイミングは、発光源が投光する強度変調光の周期に同期させて設定され、たとえば、強度変調光の周期内において90度ずつ異なる位相に相当するタイミングの受光量を個別に取り出す。強度変調光の強度変化の周波数は、実用上は数MHz〜数十MHzに設定され、撮像素子が受光する受光量は、強度変調光の1周期分の反射光の光量では不十分である。したがって、撮像素子では複数周期分(たとえば、10000周期分)の受光量に相当する電荷を蓄積した後、蓄積した電荷を前記位相の受光量に相当する電荷として出力する。
ところで、発光源が強度変調光を投光し撮像素子が反射光を受光する構成のセンサ部11は、撮像素子の視野全体において対象物までの距離を一括して計測することができるから、比較的短い時間で1枚の距離画像に相当する情報が得られる。したがって、通常の濃淡画像やカラー画像と同様に、1秒間に30フレーム以上を得ることが可能である。
センサ部11では強度変調光の各位相に対応する複数種類(たとえば、4種類)の電荷量が得られ、これらの電荷量は、強度変調光の位相を示す信号とともに距離演算部12に入力される。
いま、強度変調光が正弦波であって、センサ部11からは90度ずつ異なる4位相に対応する電荷量が得られるとする。各電荷量をA0,A1,A2,A3とすると、投受光の位相差φ[rad]は下式で表される。
φ=tan−1{(A0−A2)/(A1−A3)}
強度変調光の周波数をf〔Hz〕とすれば、投光から受光までの時間差Δtは位相差φを用いて、Δt=φ/2π・fと表されるから、光速をc〔m/s〕とすると、物体までの距離は、c・φ/4π・fと表される。すなわち、4種類の電荷量A0,A1,A2,A3により対象物までの距離を求めることができる。
距離演算部12は、センサ部11から得られた情報を用いて、各画素ごとに上述した計算を行うことにより、各画素の画素値として距離を対応付けた距離画像を生成する。ただし、得られた距離画像は、センサ部11から対象物を見込む方向における距離であって、画素の位置が角度に対応している。画素の位置に対応する角度は既知であるから、距離演算部12は、画素の位置と画素値である距離とを用いることにより、対象物の位置が実空間に対応する3次元の直交座標系で表されるように座標変換を行う。したがって、距離演算部12からは、対象物の位置が直交座標系で表された距離画像の動画像が得られる。言い換えると、撮像素子の画素に距離を対応付けた距離画像を、直交座標系で表される3次元の仮想空間にマッピングした距離画像が得られる。なお、上述した距離画像生成手段10の構成は周知であるから詳述しない。
距離画像生成手段10は、距離画像の動画像を要素抽出手段2に与える。要素抽出手段2は、距離画像の視野内において手に相当する第1要素と前腕に相当する第2要素とを対象物として抽出する。言い換えると、少なくとも第1要素と第2要素とを含む対象物が距離画像に含まれていることが必要である。
要素抽出手段2は、距離画像から第1要素と第2要素とを抽出するために、距離画像における距離の分布を求めるとともに、距離画像から対象物の輪郭の抽出を行い、前腕から手までの範囲に相当する領域の画素を抽出する。すなわち、要素抽出手段2は、距離の分布においてクラスタを形成する画素群であって、画素に連続性がある場合に当該画素群を対象物の一部であると認識する。ここに、距離画像において、隣接する各一対の画素の間の距離が規定した範囲内であるときに両画素は連続していると判断され、連続している画素からなる領域について形状および他の領域との接続関係を用いて対象物Obの一部と判断される。また、抽出された領域の包絡線が対象物Obの輪郭になる。
要素抽出手段2は、対象物の一部であると認識された画素群を、さらに別の判定基準を用いることにより、手に相当する第1要素と、前腕に相当する第2要素とに分類する。要素抽出手段2は、常時動作させることが可能であるが、センサ部11の視野内に設定された規定の空間領域において物体が検出されるようになるまでは、要素抽出手段2を動作させないようにするのが望ましい。すなわち、演算処理装置20の動作モードを2段階に切り替えるのが望ましい。
要素抽出手段2は、距離画像の1フレーム毎に第1要素と第2要素とを抽出する。さらに、要素抽出手段2は、第1要素21(図2参照)について手のひらに相当する面領域である対象面を抽出し、この対象面の向きから手のひらの向きに相当する法線ベクトルV11,V12を決定する。この法線ベクトルV11,V12は、たとえば、手のひらとして抽出した対象面の重心を求め、この重心の近傍において小面積の面要素を複数設定し、各面要素の法線ベクトルを合成して得られる向きを法線ベクトルV11,V12の向きとして採用する。なお、法線ベクトルV11,V12は向きのみが必要であり、大きさは問わない。
また、要素抽出手段2は、第2要素22(図2参照)について主軸Axを求め、主軸Axに沿った方向ベクトルV21,V22を決定する。第2要素22の主軸Axは、前腕として抽出した部位の画素の分布を用いて求める。方向ベクトルV21,V22は、法線ベクトルV11,V12と同様に、向きのみが必要であり、大きさは問わない。
要素抽出手段2が抽出した第1要素21および第2要素22と、第1要素21の法線ベクトルV11,V12および第2要素22の方向ベクトルV21,V22とは、動作抽出手段3に入力される。動作抽出手段3は、要素抽出手段2が抽出した第1要素21と第2要素22との位置および向きの変化を距離画像の動画像から抽出する。そのため、動作抽出手段3は、図1に示すように、事象検出部31と角度検出部32と動作判定部33とを備える。
図2に示すように、事象検出部31は、距離画像として形成されている3次元の仮想空間において、第1要素21から求めた手のひらに相当する対象面の法線ベクトルV11,V12の向きが第2要素22の主軸Axの周りで回転する第1事象を検出する。また、事象検出部31は、第2要素22の主軸Axに沿った方向ベクトルV21,V22の向きが変化する第2事象とを検出する。すなわち、事象検出部31は、第1要素21から得られる法線ベクトルV11,V12の向きと、第2要素22から得られる方向ベクトルV21,V22の向きとに変化があるか否かを判断する。
なお、図2は、センサ部11が人体よりも上方に配置されている場合を想定した例を示しているが、人体の正面にセンサ部11を配置する使用形態では、対象物の表裏が逆になる。
事象検出部31が、法線ベクトルV11,V12および方向ベクトルV21,V22について向きの変化が生じたと判断すると、角度検出部32は、向きの変化分に相当する角度を検出する。すなわち、角度検出部32は、第1事象における法線ベクトルV11,V12の向きの変化分である角度φと、第2事象における方向ベクトルV21,V22の向きの変化分である角度θとを検出する。角度φは、第2要素22の主軸Axの周りで回転した角度であり、角度θは、仮想空間において主軸Axの向きが変化した角度である。
本実施形態は、対象物が頁めくりの動作に相当する動きを行っているか否かを判断することが目的であるから、事象検出部31が検出する第1事象および第2事象は連動しているという条件が必要である。また、角度検出部32が検出する角度は、規定の検出範囲内であるという条件も必要である。さらに、第1事象および第2事象の検出が開始されてから、角度が検出範囲内に達するまでの時間は、規定の判定時間内であるという条件も要求される。これらの3つの条件が満たされるか否かを判断するために、動作判定部33が設けられている。動作判定部33は、上述した3つの条件を判断し、すべての条件が満足されたときに、頁めくりに相当する規定の動作が行われたと判断する。
上述した処理によって、距離画像の動画像に基づいて頁めくりに相当する動作が行われたと判断されると、動作抽出手段3は、制御手段4に頁めくりに相当する動作が行われたことを通知する。この通知を受けて制御手段4は、制御対象5への対応制御を行う。たとえば、制御対象5がモニタ装置の画面に電子ブックやウェブ新聞の頁を表示する装置であるとすれば、当該装置への対応制御として頁の更新を指示する。
角度検出部32は、角度が変化した向きも検出しており、図2に矢印で示す向きに角度が変化した場合には、頁を更新する向きを逆転させる。たとえば、図2に矢印で示す向きの角度変化に対して頁が増加する向きに頁を更新するとすれば、矢印とは逆向きの角度変化に対しては頁が減少する向きに頁を更新する。なお、縦書きの頁と横書きの頁とで、頁の増加と減少とを逆にすれば、電子ブックなどの頁めくりを書籍と同感覚で行うことが可能になる。
ところで、上述した例において、事象検出部31は、第1要素21から法線ベクトルV11,V12を抽出し、第2要素22から方向ベクトルV21,V22を抽出し、さらに向きの変化の有無を判断している。この判断でも頁めくりの動作を検出することが可能であるが、第1要素21および第2要素22の移動の向きを識別する機能が事象検出部31に付加されていることが望ましい。
この機能を実現するために、事象検出部31は、方向ベクトルV21,V22の向きの変化を検出するだけではなく、仮想空間に規定した方向(たとえば、座標軸の方向)に対する方向ベクトルV21,V22の向きを表す角度を知ることが必要である。この角度を用いると、事象検出部31は、仮想空間に対する対象物(第1要素21および第2要素22)の移動の向きを検出することが可能になる。また、動作判定部33は、事象検出部31が検出した対象物の移動の向きに応じて動作の種類を識別し、動作の種類に応じて制御対象4の対応制御を変更することが可能になる。
たとえば、事象検出部31が対象物の左右方向の移動を検出すると動作判定部33が左右の頁めくりを指示し、事象検出部31において対象物の上下方向の移動を検出すると動作判定部33が上下の頁めくりを指示するように動作の選択が可能になる。また、同様にして、左右や上下ではない頁めくりの動作が制御対象5に対する対応制御として必要であれば、動作判定部33において、対象物の移動方向に応じて適宜の方向の頁めくりを指示することが可能である。
動作判定部33が判断する条件のうち角度の検出範囲は、センサ部11と利用者との位置関係によって変化する。すなわち、センサ部11を設置する位置によって、規定の動作と判断するための角度は異なることが予想される。したがって、動作判定部33は、角度検出部32が検出した角度に対する検出範囲を設定する設定部(図示せず)を備えることが好ましい。
この設定部は、施工時に手作業で検出範囲を設定する構成を採用することが可能であるが、検出範囲の設定は自動化されていることが好ましい。検出範囲を自動的に設定する場合、設定部には、検出範囲を設定する設定モードと、検出範囲を使用して頁めくりの動作を判断する使用モードとの2つの動作モードが設けられる。
設定モードでは、利用者あるいは施工者に頁めくりの動作を複数回行わせ、このとき角度検出部32が検出した角度を用いて検出範囲を設定する。すなわち、頁めくりの動作を実際に行ったときに角度検出部32により検出される角度について、平均値と標準偏差とを用いて統計的に検出範囲を決定すればよい。また、設定部に学習機能を付与し、角度検出部32が検出した角度を学習させることにより、検出範囲を決定してもよい。
ところで、上述した動作は、第1要素21と第2要素22とを厳密に分離しなくとも頁めくりの動作を検出することができる点で優れているが、第1要素21と第2要素22との境界を決めることができれば、動作の判断が容易になると考えられる。
そこで、要素抽出手段2に、第1要素21と第2要素22とを抽出した後に、第1要素21と第2要素22との境界を決める機能が付加されていることが好ましい。境界を決めるためには、たとえば、第1要素21の主軸Axに沿う方向において主軸Axに直交する面内での最大幅W1,W2(図3参照)を計測し、計測した最大幅W1,W2の変化が規定条件を満たす位置を第1要素21と第2要素22との境界とみなす処理を行う。この場合の規定条件は、主軸Ax(図2参照)に沿って対象物の先端側(指先側)から前記最大幅W1,W2を求め、最大幅W1,W2が極小になった後に最大幅W1,W2の変化率が所定値以下になることを条件とし、極小となった位置を境界23と判断する。図3に示すように、第1要素21の最大幅W2は、第2要素22の最大幅W1よりも大きいから、この判定条件で境界23を検出することが可能である。
また、主軸Axに直交する面内で対象物の外形の曲率κ(図3参照)を求め、曲率κが規定条件を満たす位置を境界23としてもよい。この場合の規定条件は、主軸Ax(図2参照)に沿って対象物の先端側(指先側)から曲率κを求め、曲率κの変化率が極大になった後に曲率κの変化率が所定値以上になった後、曲率κの変化率が所定値以下になることを条件とし、曲率κの変化率が極大になった位置を境界23と判断する。
上述した最大幅W1,W2や曲率κは距離画像に基づいて容易に検出することができるから、第1要素21と第2要素22との境界23を容易に検出することが可能である。さらに、より簡易に境界23を求めるには、主軸Axに沿う方向において、第1要素21と第2要素22とを合計した長さ寸法に対して、規定の比率で区分される位置を第1要素21と第2要素22との境界23とみなしてもよい。一般に、人体では種々の部位の比率が測定されているから、長さ寸法に対する比率によって境界23を求めても、統計的に正しい結果を得ることができる。しかも、第1要素21と第2要素22との合計の長さ寸法がわかれば境界23が求められるから、他の方法を用いる場合よりも計算量が少なくなる。
2 要素抽出手段
3 動作抽出手段
4 制御手段
10 距離画像生成手段
20 演算処理装置
21 第1要素
22 第2要素
31 事象検出部
32 角度検出部
33 動作判定部

Claims (10)

  1. 手に相当する第1要素と前腕に相当する第2要素とについて距離画像の動画像を生成する距離画像生成手段と、前記第2要素の主軸の周りにおける前記第1要素の角度の変化を検出する角度検出部と、前記角度検出部が検出した角度が規定の検出範囲であるときに規定の動作が行われたと判断する動作判定部とを備えることを特徴とする操作入力装置。
  2. 少なくとも手に相当する第1要素と前腕に相当する第2要素とを含む対象物に関して対象物までの距離を画素値に持つ距離画像の動画像を生成する距離画像生成手段と、前記距離画像から前記第1要素に対応する領域と前記第2要素に対応する領域とを抽出するとともに前記第1要素において手のひらに相当する対象面を抽出する要素抽出手段と、前記要素抽出手段が抽出した前記第1要素と前記第2要素との位置および向きの変化を前記距離画像の動画像から抽出する動作抽出手段と、前記動作抽出手段が前記第1要素と前記第2要素との規定の動作を検出したときに制御対象への対応制御を行う制御手段とを備え、前記動作抽出手段は、前記距離画像により形成される3次元の仮想空間において、前記対象面の法線ベクトルの向きが前記第2要素の主軸の周りで回転する第1事象と、前記第2要素の主軸に沿った方向ベクトルの向きが変化する第2事象とを検出する事象検出部と、前記事象検出部が検出した第1事象における回転する角度および第2事象における変化する角度を検出する角度検出部と、前記事象検出部が第1事象および第2事象の検出を開始してから規定の判定時間内において前記角度検出部が検出した角度が規定の検出範囲であるときに前記規定の動作が行われたと判断する動作判定部とを備えることを特徴とする操作入力装置。
  3. 前記事象検出部は、前記第1要素と前記第2要素との移動の向きを識別し、前記動作判定部は、前記事象検出部が識別した移動の向きに応じて動作の種類を識別することを特徴とする請求項2記載の操作入力装置。
  4. 前記動作判定部は、前記角度検出部が検出した角度に対する前記検出範囲を設定する設定部を備えることを特徴とする請求項2又は3記載の操作入力装置。
  5. 前記設定部は、前記検出範囲を設定する設定モードと、前記検出範囲を使用して前記規定の動作を判断する使用モードとの2つの動作モードを有し、前記設定モードでは、前記対象物に前記規定の動作を複数回行わせたときに前記角度検出部が検出した角度に基づいて前記検出範囲を設定することを特徴とする請求項4記載の操作入力装置。
  6. 前記要素抽出手段は、前記距離画像を用いて前記対象物に関して前記第1要素および前記第2要素を抽出した後、前記第1要素の主軸に沿う方向において当該主軸に直交する面内での最大幅を計測し、計測した最大幅の変化が規定条件を満たす位置を前記第1要素と前記第2要素との境界とみなすことを特徴とする請求項2〜5のいずれか1項に記載の操作入力装置。
  7. 前記要素抽出手段は、前記距離画像を用いて前記対象物に関して前記第1要素および前記第2要素を抽出した後、前記第1要素の主軸に沿う方向において当該主軸に直交する面内での曲率を計測し、計測した曲率の変化が規定条件を満たす位置を前記第1要素と前記第2要素との境界とみなすことを特徴とする請求項2〜5のいずれか1項に記載の操作入力装置。
  8. 前記要素抽出手段は、前記距離画像を用いて前記対象物に関して前記第1要素および前記第2要素を抽出した後、前記第1要素の主軸に沿う方向において前記第1要素と前記第2要素とを合計した長さ寸法に対して規定の比率で区分される位置を前記第1要素と前記第2要素との境界とみなすことを特徴とする請求項2〜5のいずれか1項に記載の操作入力装置。
  9. コンピュータを、手に相当する第1要素と前腕に相当する第2要素とについて距離画像の動画像を距離画像生成手段から取得するとともに、前記第1要素と前記第2要素との規定の動作を検出する演算処理装置として機能させるためのプログラムであって、コンピュータを、前記第2要素の主軸の周りにおける前記第1要素の角度の変化を検出する角度検出部と、前記角度検出部が検出した角度が規定の検出範囲であるときに規定の動作が行われたと判断する動作判定部とを備える演算処理装置として機能させるプログラム。
  10. コンピュータを、少なくとも手に相当する第1要素と前腕に相当する第2要素とを含む対象物に関して対象物までの距離を画素値に持つ距離画像の動画像を生成する距離画像生成手段から前記距離画像を取得するとともに、前記第1要素と前記第2要素との規定の動作を検出したときに制御対象への対応制御を行う演算処理装置として機能させるためのプログラムであって、コンピュータを、前記距離画像から前記第1要素に対応する領域と前記第2要素に対応する領域とを抽出するとともに前記第1要素において手のひらに相当する対象面を抽出する要素抽出手段と、前記要素抽出手段が抽出した前記第1要素と前記第2要素との位置および向きの変化を前記距離画像の動画像から抽出する動作抽出手段と、前記動作抽出手段が前記第1要素と前記第2要素との規定の動作を検出したときに制御対象への対応制御を行う制御手段とを備え、前記動作抽出手段が、前記距離画像により形成される3次元の仮想空間において、前記対象面の法線ベクトルの向きが前記第2要素の主軸の周りで回転する第1事象と、前記第2要素の主軸に沿った方向ベクトルの向きが変化する第2事象とを検出する事象検出部と、前記事象検出部が検出した第1事象における回転する角度および第2事象における変化する角度を検出する角度検出部と、前記事象検出部が第1事象および第2事象の検出を開始してから規定の判定時間内において前記角度検出部が検出した角度が規定の検出範囲であるときに前記規定の動作が行われたと判断する動作判定部とを備える演算処理装置として機能させるプログラム。
JP2011109586A 2011-05-16 2011-05-16 操作入力装置、プログラム Expired - Fee Related JP5658618B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011109586A JP5658618B2 (ja) 2011-05-16 2011-05-16 操作入力装置、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011109586A JP5658618B2 (ja) 2011-05-16 2011-05-16 操作入力装置、プログラム

Publications (2)

Publication Number Publication Date
JP2012242901A JP2012242901A (ja) 2012-12-10
JP5658618B2 true JP5658618B2 (ja) 2015-01-28

Family

ID=47464591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011109586A Expired - Fee Related JP5658618B2 (ja) 2011-05-16 2011-05-16 操作入力装置、プログラム

Country Status (1)

Country Link
JP (1) JP5658618B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6269316B2 (ja) 2014-01-08 2018-01-31 富士通株式会社 入力装置、入力方法および入力プログラム
US9529445B2 (en) 2014-01-08 2016-12-27 Fujitsu Limited Input device and input method
US10444617B2 (en) 2015-04-30 2019-10-15 Sony Corporation Image processing apparatus and image processing method
CN110443224A (zh) * 2019-08-14 2019-11-12 广东小天才科技有限公司 翻页检测方法、装置、电子设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3630712B2 (ja) * 1994-02-03 2005-03-23 キヤノン株式会社 ジェスチャー入力方法及びその装置
JP2986455B1 (ja) * 1998-07-24 1999-12-06 株式会社エイ・ティ・アール知能映像通信研究所 手振り認識装置
JP4332649B2 (ja) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
US7565295B1 (en) * 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US9032336B2 (en) * 2006-09-07 2015-05-12 Osaka Electro-Communication University Gesture input system, method and program

Also Published As

Publication number Publication date
JP2012242901A (ja) 2012-12-10

Similar Documents

Publication Publication Date Title
TWI722280B (zh) 用於多個自由度之控制器追蹤
JP5898022B2 (ja) 自走式機器
US20020041327A1 (en) Video-based image control system
Saputra et al. Indoor human tracking application using multiple depth-cameras
JP2017529635A5 (ja)
US20110244959A1 (en) Image generation system, image generation method, and information storage medium
CN104937635A (zh) 基于模型的多假设目标追踪器
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
TW201142745A (en) Information processing apparatus, information processing system, and information processing method
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
WO2011146070A1 (en) System and method for reporting data in a computer vision system
JP5658618B2 (ja) 操作入力装置、プログラム
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
CN113474816A (zh) 弹性动态投影映射系统和方法
US11729367B2 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
WO2018176773A1 (zh) 三维空间的交互系统及其操作方法
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
Chen et al. Camera networks for healthcare, teleimmersion, and surveillance
Grewal et al. Autonomous wheelchair navigation in unmapped indoor environments
WO2020040277A1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JP5863984B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
KR102097033B1 (ko) 보디 포인트 인터액션 센싱을 통한 모션 추정 시스템
TWI454653B (zh) 三維絕對座標偵測系統、互動三維顯示系統以及辨識物體之三維座標的方法
CN112449166B (zh) 全息投影设备、投影控制方法、装置、计算机设备和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140926

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141128

R150 Certificate of patent or registration of utility model

Ref document number: 5658618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees