JP2014048882A - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2014048882A
JP2014048882A JP2012191128A JP2012191128A JP2014048882A JP 2014048882 A JP2014048882 A JP 2014048882A JP 2012191128 A JP2012191128 A JP 2012191128A JP 2012191128 A JP2012191128 A JP 2012191128A JP 2014048882 A JP2014048882 A JP 2014048882A
Authority
JP
Japan
Prior art keywords
user
image data
motion
feature point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012191128A
Other languages
English (en)
Other versions
JP6015250B2 (ja
Inventor
Nobuyuki Hara
伸之 原
Katsuto Fujimoto
克仁 藤本
Taichi Murase
太一 村瀬
Atsunori Mogi
厚憲 茂木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012191128A priority Critical patent/JP6015250B2/ja
Priority to US13/946,546 priority patent/US9542003B2/en
Publication of JP2014048882A publication Critical patent/JP2014048882A/ja
Application granted granted Critical
Publication of JP6015250B2 publication Critical patent/JP6015250B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】
ウェアラブルディスプレイに装着されたカメラの画像のみで、動いている物体に対するユーザの動作を認識することが可能な画像認識装置を提供する。
【解決手段】
本発明にかかる画像認識装置は、ユーザの視野方向の画像データを取得し、画像データ中の第一の領域から特徴点を抽出し、抽出した特徴点と記憶部に記憶されている物体の特徴点とを対応付けることによって第一の物体を認識し、第一の物体に対応する特徴点のうち第一の物体に対応する特徴点が画像中心方向に移動しているときの位置変動量を複数の画像データから算出し、算出した位置変動量から第一の物体の移動速度を算出し、第一の物体が画像中心部に達すると、第一の物体に対応する特徴点の位置変動量を取得時間が異なる複数の画像データから算出し、第一の物体の移動速度と位置変動量とに基づいてユーザの動作に要する時間を推定し、推定された時間に基づいてユーザの動作を判定する。
【選択図】図1

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
近年、情報通信技術の発展に伴い、外界の情報を取得するカメラが搭載されたHMD(Head Mount Display)等のウェアラブルディスプレイをユーザが装着した状況で、ユーザの周囲に存在する物体の詳細な情報(以下、付帯情報と称する)を取得する技術の開発が行われている。付帯情報には、物体の外観から得られる情報の他に、物体には一見現れない情報、例えば物体固有の名前や、物体が製造された環境、物体に対する他のユーザの評判等の情報が含まれる。
ここで、複数の付帯情報の中から、ユーザが取得したい情報を選択して取得する場合等には、ユーザからの情報入力手段が必要である。その際、マウスやキーボード等の従来のインタフェースを使用することも可能であるが、簡便かつ効率的な入力方法として、ユーザの動作(ジェスチャ)を入力手段とする方法が注目されている。
ユーザのジェスチャを入力手段とする方法として、加速度センサを用いて手指の動作を測定するものや、ウェアラブル装置に搭載された視線検出装置により視線の動きを判定するものが開示されている(例えば、特許文献1参照)。
また、ハンズフリーやアイズフリーを目指したジェスチャによるユーザインタフェースを実現するために、頭部(顎部頭部を含む)の動きをジェスチャとして認識する方法も注目されている。頭部の動作による認識方法においては、頷きや首ふりといった、実際の人間の日常動作と関連付いた、自然なジェスチャ入力が実現できる。
頭部の動作を入力手段とする方法としては、外部に設置されたセンサから頭部の位置を推定して頭部の動作を判定する方法が開示されている。また、ユーザの頭部に加速度センサを取り付けて、加速度センサから得られる値を解析することによって頭部の動作を判定する方法も開示されている(例えば、特許文献2参照)。
特開平10−214306号公報 特開2011−14082号公報
上述のユーザの動作を検知する従来技術においては、外界の画像を取得するカメラの他に、ユーザの動きを判断するための外部センサや加速度センサ等のセンサが必要となり、利便性の低下やコストの増加という課題が存在する。
そこで、本発明は、外界の画像を取得する、ウェアラブルディスプレイに装着されたカメラの画像のみで、物体に対するユーザの動作を認識することが可能な画像処理装置を提供することを目的の一側面とする。
上記の目的を達成するために、本発明にかかる画像処理装置は、ユーザの視野方向の画像データを取得する取得部と、前記画像データ中の第一の領域から特徴点を抽出し、抽出した特徴点と前記記憶部に記憶されている物体の特徴点を対応付けることによって、前記画像データに含まれる第一の物体を認識する物体認識部と、前記第一の物体に対応する特徴点のうち、前記第一の物体に対応する特徴点が画像中心方向に移動しているときの位置変動量を、取得時間が異なる複数の前記画像データから算出し、該位置変動量から、前記第一の物体の移動速度を算出する移動推定部と、取得時間が異なる複数の前記画像データ間における前記第一の物体の位置変動量から求められた該第一の物体の挙動と、前記第一の領域の内側に位置し、前記画像データの中心点を含む第二の領域に前記物体が所定の時間継続して存在するか否か、とに応じて、前記第一の物体がユーザの注視対象物体か否か判定する注視判定部と、前記第一の物体がユーザの注視対象物体であると判定されたとき、前記第一の物体に対応する特徴点の位置変動量を、取得時間が異なる複数の前記画像データから算出する動作量算出部と、前記第一の物体の移動速度と前記位置変動量とに基づいて、前記ユーザの動作に要する時間を推定し、推定された時間に基づいて前記ユーザの動作を判定する動作判定部と、を含む。
本発明の構成によれば、外界の画像を取得する、ウェアラブルディスプレイに装着されたカメラの画像のみで、物体に対するユーザの動作を認識することが可能となる。
実施例1にかかる画像処理装置1の機能構成例を表す機能ブロック図。 実施例1にかかる画像処理装置1のハードウェア構成例を示すブロック図。 物体認識部4の物体認識処理のフローチャート。 画像データの周辺部の例。 移動推定部5による物体の移動速度及び方向の推定処理のフローチャート。 注視判定部6による注視対象の判定処理のフローチャート。 動作量算出部7による物体の動作量算出処理のフローチャート。 動作判定部8によるユーザの動作判定処理のフローチャート。 ユーザ動作対応テーブルの例。 動作判定部8による第二のユーザ動作判定処理のフローチャート。 異なる物体の移動速度におけるユーザの動きベクトルの時間変化パターンの例。 一つの実施形態による画像処理装置1を含むHMD300の構成図。
以下に添付図面を参照して、本発明にかかる画像処理装置、画像処理方法及び画像処理プログラムの実施例について詳細に説明する。なお、この実施例は開示の技術を限定するものではない。
ところで、物体に対してユーザが動作を行う場合、静止している物体(看板等)に対して動作を行う場合と、移動している物体(走行中のトラックに描かれた広告等)に対して動作を行う場合の両方が考えられる。このうち、静止している物体に対するユーザの動作を認識する画像処理装置および画像処理方法については、本願発明者による先願(特願2011−268378)にて提案している。
先願(特願2011−268378)では、ユーザが静止している物体を注視している場合に、ユーザが注視している物体の動きベクトルをユーザの視線方向を撮像した画像から取得してユーザの動作を検知するものであった。しかしながら、ユーザが情報を取得したい対象物は必ずしも静止している物体であるとは限らない。例えばユーザが走行中のトラックに描かれた製品広告に関する情報を取得したいと考える場合も想到される。そこで、本願明細書では、ユーザが動いている物体を注視している場合におけるユーザの動作を検知する場合について説明する。
発明者の検証によれば、ユーザは移動する物体を認識する際、まず該物体が存在する方向に頭部を回転させてユーザの視界内に物体を収め、その後頭部を固定し眼球のみを回転させて対象物体を追跡し、該物体が視界の中央付近に位置するようになるまで追跡を継続する動作を行う。そして、物体が視野の中央付近に到着した後に、ユーザは眼球の回転を止めて首の回転によって物体を追跡する傾向があることが判明した。
また、発明者の検証によれば、ユーザと対象物との間の位置関係が変化する場合、首を回転させて移動する対象物を追跡する際は、各フレームの画像データ内における物体の位置はほぼ一定となる。しかし、この状態でユーザが頭部を対象物の移動方向と平行に動作させる場合、頭部の動作時間は追跡している対象物の移動速度に応じて変化し、追跡している対象物の移動速度が速いほど頭部の動作時間が短くなる傾向があることが判明した。
ここで、物体の移動速度に応じて頭部の動作時間が短くなる(動作速度が速くなる)理由について、以下具体例を交えて説明する。ユーザから見て左方向に向かって水平に等速で移動する物体をユーザが頭部を左方向に回転させて追跡中の場合に、頭部を左方向に振るジェスチャを行う場合について考える。ここで、ここで、頭部の動作を開始して一度止める(振り切る)までの動作を「往路」、止めてから動作開始時の首の位置へ戻すまでの動作を「復路」と呼称するものとする。
まず、往路については、ユーザはジェスチャの開始前から往路方向と同方向に頭部を回転させているため、頭部の回転速度は物体の移動速度が速いほど、物体の移動速度に合わせた頭部の回転速度が往路動作の速度に加わる形で速くなる。したがって、往路の動作時間は物体の移動速度が速いほど短く(動作速度が速く)なる。次に、復路については物体の移動方向と頭部の回転方向が逆であるため、復路方向の回転速度と認識対象物体の移動方向の速度が加算される形となり、復路の動作時間が短くなる。
次に、前述の例と同じくユーザから見て左方向に向かって水平に等速で移動する物体をユーザが頭部を左方向に回転させて追跡中の場合に、頭部を右方向に振るジェスチャを行う場合について考える。
まず、往路における頭部の回転方向は追跡動作時の回転方向と逆となり、ユーザは物体が視野の中心から離れていく方向に頭部を回転させるため、頭部の回転速度は、物体の移動速度と頭部の回転速度とが加算される形となる、よって、ユーザの感覚として実際よりも大きく回転していると感じられる。また、ユーザの頭部の回転方向と物体の移動方向とが異なる場合、頭部の回転角は小さくなり、結果として動作時間は短くなる。次に、復路においては物体の移動方向と頭部の回転方向は同一であるが、往路の動作では物体は視野の中心から左方向に離れる方向にあったため、左方向に移動する物体に追いつくためには、物体の移動速度が頭部の復路方向の回転速度に加わる形となり、急いで頭部を回転させる必要がある。したがって、結果として頭部の回転速度が上がる(復路の動作時間も短くなる)。
なお、以降の説明では特に注釈がない場合、ユーザの頭部の移動方向は対象物の移動方向と平行であるものとする。ユーザの頭部の移動方向が対象物の移動方向と垂直である場合は、先に述べた先願(特願2011−268378)に記載された手法をそのまま適用することが可能である。
図1は、実施例1にかかる画像処理装置1の機能構成例を表す機能ブロック図である。図1において、画像処理装置1は、記憶部2と、取得部3と、物体認識部4と、移動推定部5と、注視判定部6と、動作量算出部7と、動作判定部8と、表示部9とを有する。
記憶部2は、画像処理装置1による認識処理の対象となる物体(看板、商品、樹木等)を撮像した画像から抽出された、物体の特徴点を記憶する機能を有する。また、記憶部2は、物体に関する付帯情報と、該付帯情報に対応するユーザの動作とを記憶する機能を有する。さらに、記憶部2は、ユーザの認識対象物体の動きベクトルとユーザの動作とを対応付けたユーザ動作対応テーブルを、物体の移動方向及び速度と対応付けて保持する機能を有する。
取得部3は、撮像装置100(図12に記載)によって撮像された画像データを取得する機能を有する。具体的には、取得部3は、例えばHMDに備え付けられた撮像装置100によって撮像されたユーザの視野方向の画像データを取得する。
物体認識部4は、取得部3が取得した画像データの周辺部から特徴点を抽出して、抽出した特徴点と記憶部2に記憶されている物体の特徴点を対応付けることにより、取得部3が取得した画像データに含まれている1以上の物体を認識する機能を有する。なお、物体認識部4が実行する物体の認識処理の詳細フローについては後述する。
移動推定部5は、物体認識部14が認識した1以上の認識対象物体の特徴点の動きベクトルを複数の前記画像データから算出し、前記物体のユーザに対する移動速度および移動方向を推定する機能を有する。前述のように、ユーザは移動する物体を認識する際、まず該物体が存在する方向に頭部を回転させてユーザの視界内に物体を収め、その後頭部を固定し眼球のみを回転させて対象物体を追跡し、該物体が視界の中央付近に位置するようになるまで追跡を継続する動作を行う傾向がある。したがって、ユーザの頭部が固定されているときの認識対象物体の視界内での位置変化を算出することで、認識対象物体のユーザに対する移動速度を推定することができる。なお、移動推定部15が実行する物体の移動速度及び方向の推定処理の詳細フローについては後述する。
注視判定部6は、前記物体の動きベクトルの方向及び大きさ、該物体が一定時間所定の範囲に位置しているか否か等の性質から、該物体がユーザによる注視の対象であるか否かを判定する機能を有する。なお、注視判定部6による注視対象の判定処理の詳細フローについては後述する。
動作量算出部7は、物体認識部4が認識し、注視判定部6によってユーザの注視対象であると判定された物体の特徴点の動きベクトルを算出する機能を有する。なお、動作量算出部7による物体の動作量算出処理の詳細フローについては後述する。
動作判定部8は、移動推定部5が算出した物体の動きベクトル(第一ベクトル)と、動作量算出部7が算出した物体の動きベクトル(第二ベクトル)に基づいてユーザの動作を判定する機能を有する。具体的には、動作判定部8は、移動推定部5が算出した物体の動きベクトルに基づいて、記憶部2に格納されたユーザ動作対応テーブルを選択し、該テーブルに基づいてユーザの動作を判定する。なお、動作判定部8によるユーザの動作判定の詳細フローについては後述する。
表示部9は、動作判定部8が判定したユーザの動作に対応した認識対象物体の付帯情報を記憶部2から取得し、該付帯情報を表示装置200(図12に記載)に出力する機能を有する。表示装置200では、認識対象物体の付帯情報が該認識対象物体に重畳して表示される。
図2は、実施例1にかかる画像処理装置1のハードウェア構成例を表すブロック図である。図2において、画像処理装置1は、CPU(Central Processing Unit)10と、不揮発メモリ11と、入力インタフェース12と、出力インタフェース13と、メモリ14と、を有する。また、各構成部はバス15によってそれぞれ電気的に接続されている。
ここで、CPU10は、画像処理装置1全体の制御をつかさどる演算部である。不揮発メモリ11は、フラッシュメモリ等の半導体メモリ素子、または、HDD(Hard Disc Drive)、ROM(Read Only Memory)、光ディスク等の記憶装置である。不揮発メモリ11には、画像処理装置1を動作させるためのプログラムと、該プログラムを動作させるために必要なデータと、複数の認識対象物体の特徴点と、該認識対象物体に関する付帯情報と、該付帯情報に対応するユーザの動作とが記憶されている。入力インタフェース12は、撮像装置100とバス15とを接続するインタフェースであり、出力インタフェース13は、表示装置200とバス15とを接続するインタフェースである。メモリ14は、レジスタやRAM(Random Access Memory)等の記憶装置であり、CPU10のワークエリアとして使用される。
画像処理装置1は、具体的には、例えば入力インタフェース12によって取得部3の機能を、出力インタフェース13によって表示部9の機能を実現する。さらに、画像処理装置1は、例えば不揮発メモリ11によって記憶部2の機能を実現する。そして、画像処理装置1は、例えば不揮発メモリ11に格納されたプログラムをCPU10が実行することにより、物体認識部4、移動推定部5、注視判定部6、動作量算出部7および動作判定部8の機能を実現する。
[物体認識部4の処理フロー]
図3は、実施例1にかかる物体認識部4の物体認識処理のフローチャートである。まず、物体認識部4は、取得部3から画像データ(フレーム)を取得して該画像データ(フレーム)から特徴点を抽出する(ステップS101)。なお、本発明において画像データ(フレーム)から抽出される特徴点は通常複数であることに留意されたい。
次に、物体認識部4は、ステップS101において物体認識部4が抽出した複数の特徴点が、取得した画像データ内の所定の周辺領域内に位置しているか判定する(ステップS102)。具体的には、物体認識部4は、該複数の特徴点を代表する座標値(例えば、前記複数の特徴点の重心など)が前記所定の周辺領域内に位置しているか判定する。ここで、本願明細書では画像データの周辺領域を、画像の両端からそれぞれ5分の1の領域とした場合について説明する。
図4は本実施例における画像データの周辺部の例である。図4のように、物体が上下に移動している場合は画像の上下端から5分の1ずつを周辺部として設定し、物体が左右に移動している場合は画像の左右端から5分の1ずつを周辺部として設定する。なお、周辺部の設定方法は上記手法に限定されるものではなく、例えば物体の移動方向に関わらず画像の淵から5分の1の領域を周辺部として設定するなど、管理者等が適宜設定することができる。
前記複数の特徴点が画像周辺部の所定の領域内に位置していない場合(ステップS102:No)、物体認識部4はステップS101の処理に戻り、該座標値が画像周辺部の所定の領域内に収まっている場合(ステップS102:Yes)、次の処理に進む。
次に、物体認識部4は、ステップS101において物体認識部4が抽出した複数の特徴点の各特徴点と、記憶部2が記憶しているすべての物体の複数の特徴点の各特徴点との照合が完了しているか否か判定する(ステップS103)。照合が完了していない場合(ステップS103:No)、物体認識部4は、記憶部2に記憶されている任意の一つの物体を選択する(ステップS104)。
次に、物体認識部4は、ステップS104において物体認識部4が選択した物体の複数の特徴点を記憶部2から読み出す(ステップS105)。さらに、物体認識部4は、ステップS101において物体認識部4が抽出した複数の特徴点から、任意の一つの特徴点を選択する(ステップS106)。
物体認識部4は、ステップS106において物体認識部4が選択した一つの特徴点と、ステップS105において物体認識部4が読み出した物体の特徴点との対応付けを探索する(ステップS107)。具体的には、物体認識部4は、ステップS106において物体認識部4が選択した一つの特徴点とステップS105において物体認識部4が読み出した物体の各特徴点との間の類似度として距離dを算出する。
次に、物体認識部4は、特徴点の対応付けの妥当性を判定するために閾値判定を行う(ステップS108)。具体的には、ステップS107において物体認識部4が算出した距離dの最小値d1と、2番目に最小となる値d2を算出する。そして、物体認識部4は、閾値判定として、d1とd2との距離が所定の距離以上(例えばd1がd2に0.6を乗算した値よりも小さい値)かつd1が所定の値以下(例えば0.3以下)であるか否かを判定する。なお、閾値は上記したものに限らず、システム管理者等が適宜設定することができる。
閾値判定の条件を満たしている場合(ステップS108:Yes)、物体認識部4は、特徴点の対応付けを行う(ステップS109)。条件を満たしていない場合(ステップS108:No)、物体認識部4は、特徴点の対応付けを行わず、次の処理に進む。
次に、物体認識部4は、ステップS105において物体認識部4が読み出した複数の特徴点と、ステップS101において取得部3が取得した複数の特徴点とをすべて照合したかを判定する(ステップS110)。照合処理が完了している場合(ステップ110:Yes)、物体認識部4は、ステップS103に処理を進める。照合処理が完了していない場合(ステップS110:No)、物体認識部4は、ステップS106に処理を進める。
そして、ステップS103において、全ての照合が完了していると判定された場合(ステップS103:Yes)、物体認識部4は、ステップS109において物体認識部4が対応付けた特徴点の個数に基づいて、取得部3が取得した画像に含まれる1以上の物体を認識する(ステップS111)。
このようにして、物体認識部4は、取得部3が取得した画像データから、該画像データに含まれる1以上の認識対象物体を認識する。また、物体認識部4は、取得部3が取得する複数の画像データのすべてにおいて上述の認識処理を行ってもよく、所定時間ごとにキーフレームを定め、該キーフレームにおいてのみ認識処理を行ってもよい。
[移動推定部5の処理フロー]
図5は、移動推定部5による物体の移動速度及び方向の推定処理のフローチャートである。まず、移動推定部5は、物体認識部4が認識した物体の特徴点のうち、推定処理に用いるものを複数選出する(ステップS201)。なお、推定処理に用いる特徴点の数は複数(例えば、4点)であればよく、特徴点の選択基準及び数はシステム管理者等が推定処理の精度や処理の重さ等を勘案して適宜設定することができる。
次に、移動推定部5は、ステップS201で移動推定部5が選出した各特徴点の位置変動量(u´、v´)を、例えばオプティカルフローを用いて時系列に算出する(ステップS202)。なお、移動推定部5は、ステップS202における処理のロバスト性を向上させるために、必要に応じて位置変動量の上限を設定して位置変動量の妥当性を判断してもよい。例えば、前述のように人間の頭部の動作はおおよそ1秒程度であるので、利用者の視界に1秒以上存在する物体であれば追尾可能であると仮定し、フレームあたり位置変動量が「物体の移動方向の総画素数/1秒当たりフレーム数」以下であれば妥当であると判断してもよい。ただし、これはあくまで一例にすぎず、本発明の形態を限定するものではない。
次に、移動推定部5は、ステップS202で移動推定部5が算出した各特徴点のうち、移動推定に用いる複数の特徴点の位置変動量を平均化して、その値から物体の動きベクトル(u´´、v´´)を算出する(ステップS203)。ここで、動きベクトルのデータ構造について具体的に説明する。例えば、現時刻tに取得されたフレームをフレームtと定義し、時刻t−1との間の特徴点の移動量を動きベクトルとすると、フレームtの動きベクトルは、例えば(x,y)を(9.3、−3.4)、過去時刻のフレームt−1の動きベクトルは(9.9、−2.8)、過去時刻のフレームt−2の動きベクトルは(8.1、−1.3)のように表せる。
次に、移動推定部5は、物体が画像データ内の周辺領域内を画像データの中心に向かって移動している間の各フレームの動きベクトルをフレーム数で平均化して、物体の平均速度Pを算出する(ステップS204)。具体的には、移動推定部5は、物体が画像データ内の周辺領域内を画像データの中心に向かって移動しているときの各フレームの動きベクトルの総和をフレーム数で除算して得られたベクトルの大きさを、物体の平均速度P(画素/フレーム)として算出する。このようにして、移動推定部5は、物体の特徴点の位置変動量を複数の画像データから算出し、該位置変化量から物体の平均速度を算出する。なお、移動推定部5は各フレームの動きベクトルの総和をフレーム数で除算して得られたベクトルの長さを平均速度Pとしてもよく、該ベクトルのx要素、もしくはy要素のみを平均速度Pとしてもよい。
[注視判定部6の処理フロー]
図6は、注視判定部6による注視対象の判定処理のフローチャートである。まず、注視判定部6は、移動推定部5が算出した、物体が画像データ内の周辺領域内及び中間領域内を移動しているときの該物体の動きベクトルの方向が画像中心方向を向いているか判定する(ステップS301)。具体例としては、注視判定部6は、フレームtにおいて、フレームtにおける物体の位置がフレームt−1における該物体の位置よりも画像の中心に近い場合、該動きベクトルの方向が画像中心方向に向かっていると判定する。ここで、本実施例では画像データの中間領域を、画像の両端から5分の1〜5分の2の領域とした場合について説明する。
図4は本実施例における画像データの中間部の例も示している。図4のように、物体が上下に移動している場合は画像の上下端から5分の1〜5分の2の領域を中間部として設定し、物体が左右に移動している場合は画像の左右端から5分の1〜5分の2の領域を中間部として設定する。なお、中間部の設定方法は上記手法に限定されるものではなく、例えば物体の移動方向に関わらず画像の淵から5分の1〜5分の2の領域を中間部として設定するなど、管理者等が適宜設定することができる。
移動推定部5が算出した物体の動きベクトルの方向が画像中心方向を向いていない場合(ステップS301:No)、注視判定部6は、該物体はユーザの注視対象ではないと判定し(ステップS306)、物体認識部4による物体認識処理に戻る。ただし、この判定方法はあくまで一例であり、本発明の形態を限定するものではない。
移動推定部5が算出した物体の動きベクトルの方向が画像中心方向を向いている場合(ステップS301:Yes)、注視判定部6は、物体が画像データ内の周辺領域内及び中間領域内を移動しているときの該物体の動きベクトルの大きさ(すなわち、該物体の速度)が一定であるか判定する(ステップS302)。具体例としては、注視判定部6は、物体が画像データ内の周辺領域内及び中間領域内を移動しているとき、所定のフレーム数(例えば、10フレーム)において該物体の動きベクトルの大きさの変化が所定の割合(例えば、±5%)に収まっていれば、該物体の速度が一定であると判定する。ただし、この判定方法および具体値はあくまで一例であり、本発明の形態を限定するものではない。該物体の動きベクトルの大きさの変化が一定でない場合(ステップS302:No)、注視判定部6は、該物体はユーザの注視対象ではないと判定し(ステップS306)、物体認識部4による物体認識処理に戻る。
物体が画像データ内の周辺領域内及び中間領域内を移動しているときの該物体の動きベクトルの大きさが所定の範囲内に収まっている場合(ステップS302:Yes)、注視判定部6は、該物体の動きベクトルの向きが一定であるか判定する(ステップS303)。具体的には、注視判定部6は、所定のフレーム数(例えば、10フレーム)において、物体が画像データ内の周辺領域内及び中間領域内を移動しているときの該物体の動きベクトルの角度が所定の範囲(例えば、±16°)を超えて変化しなかったとき、該物体の動きベクトルの向きが一定であると判定する。ただし、この判定方法および具体値はあくまで一例であり、本発明の形態を限定するものではない。該物体の動きベクトルの向きが一定でない場合(ステップS303:No)、注視判定部6は、該物体はユーザの注視対象ではないと判定し(ステップS306)、物体認識部4による物体認識処理に戻る。
物体が画像データ内の周辺領域内及び中間領域内を移動しているときの該物体の動きベクトルの向きが所定の範囲内に収まっている場合(ステップS303:Yes)、注視判定部6は、該物体が画像の中心領域に到達した後にその位置に留まり続けているか判定する(ステップS304)。具体的には、注視判定部6は、該物体の座標が画像の中心領域に入った後、該物体の座標が所定のフレーム数(例えば、10フレーム)の間継続して該領域内に収まり続けているとき、該物体が中心部に到達後その位置に留まっていると判定する。該物体の座標が継続して該領域内に収まらなかった場合(ステップS304:No)、注視判定部6は、該物体はユーザの注視対象ではないと判定し(ステップS306)、物体認識部4による物体認識処理に戻る。
該物体の座標が継続して該領域内に収まっている場合(ステップS304:Yes)、注視判定部6は、該物体はユーザの注視対象であると判定する(ステップS305)。なお、上記処理により複数の物体が注視対象として判定された場合、注視判定部6は座標値が最も画像の中心に近い物体を注視対象として選択してもよいし、ユーザによる選択に従って注視対象とする物体を選択してもよい。このようにして、注視判定部6は、物体の動きベクトルの向き及び大きさを用いてユーザの注視対象である物体を判定する。なお、注視判定部6による注視対象の判定処理は、移動推定部5による物体の移動速度及び方向の推定処理と並行して行われてもよく、該推定処理の後に行われてもよい。
[動作量算出部7の処理フロー]
図7は、動作量算出部7による物体の動作量算出処理のフローチャートである。まず、動作量算出部7は、注視判定部6がユーザの注視対象として判定した物体(以下、注視対象物体と呼称する)の各特徴点のうち、動作量算出に用いるものを複数選出する(ステップS401)。なお、動作量算出処理に用いる特徴点は複数であればよく、特徴点の選択基準及び数はシステム管理者等が適宜設定することができる。
次に、動作量算出部7は、ステップS401で動作量算出部7が選出した各特徴点の動きベクトルの変化量(x´、y´)を、例えばオプティカルフローを用いて時系列に算出する(ステップS402)。なお、動作量算出部7は、ステップS402における処理のロバスト性を向上させるために、必要に応じて位置変動量の上限を設定して位置変動量の妥当性を判断してもよい。前記位置変動量の妥当性を判断する方法としては、例えば、上記の理由に基づき、フレームあたり位置変動量が「物体の移動方向の総画素数/1秒当たりフレーム数」以下であれば妥当と判断するものが考えられる。ただし、これはあくまで一例にすぎず、本発明の形態を限定するものではない。
次に、動作量算出部7は、ステップS402で動作量算出部7が算出した各特徴点の位置変動量を平均化して、その値から注視対象物体の動きベクトル(x´´、y´´)を算出する(ステップS403)。動作量算出部7は、x方向とy方向の動きベクトルを合成したものを注視対象物体の動きベクトルとしてもよいし、x方向のみ、もしくはy方向のみに着目した動きベクトルを注視対象物体の動きベクトルとしてもよい。このようにして、動作量算出部7は、注視対象物体の特徴点の位置変動量を複数の画像データから算出し、該位置変化量から注視対象物体の動きベクトルを算出する。
[動作判定部8の処理フロー]
図8は、動作判定部8によるユーザの動作判定処理のフローチャートである。まず、動作判定部8は、動作量算出部7が算出した注視対象物体の動きベクトル(x´´、y´´)を、メモリ14に格納する(ステップS501)。次に、動作判定部8は、移動推定部5が算出した注視対象物体の平均速度Pと、利用者と注視対象物体との位置関係が不変な状態における所定のフレーム数(例えば、30フレーム)Fsを用いて、判定に必要なフレーム数Fを求める(ステップS502)。
前述のように、ユーザが動いている物体を注視しているときの頭部動作時間は、ユーザが停止している物体を注視しているときの頭部動作時間よりも短く、また、ユーザが注視している物体が高速で移動しているほど、頭部動作時間は短くなる傾向がある。したがって、ユーザが動いている物体を注視している場合、物体の移動速度によらず一定のフレーム数で動きベクトルを平均化すると、実際の頭部動作の速度とのずれが生じ、正確にユーザの動作を判定できない可能性がある。
そこで、本発明では、判定に必要なフレーム数Fを、以下の式を用いて求める。なお、kは定数であり、本実施例ではk=1.0である場合について説明する。

Figure 2014048882

例えば、Fsが30フレーム、k(定数)を1.0、平均速度Pを1.0(画素/フレーム)とすると、必要なフレーム数Fは25フレームとなる。
次に、動作判定部8は、所定のフレーム数の動きベクトルを算出したか否かを判定する(ステップS503)。所定のフレーム数とは、ステップS502において動作判定部が求めたフレーム数Fのことであり、上述の例であれば25フレームである。
所定のフレーム数の動きベクトルを格納していると判定された場合(ステップS503:Yes)、動作判定部8は、格納した動きベクトルを所定のフレーム数で平均化することで、平均動きベクトル(X、Y)を求める(ステップS504)。所定のフレーム数の動きベクトルを格納していないと判定された場合(ステップS503:No)、動作判定部8は、ステップS501に処理を戻す。
次に、動作判定部8は、注視対象物体の移動方向及び平均速度Pに応じたユーザ動作対応テーブルを選択する(ステップS505)。先述のように、ユーザが注視物体の移動方向と平行に頭部を動作させる場合、注視物体の移動速度が大きいほど動作速度も大きくなる(動作時間が短くなる)。また、注視対象物体の移動方向と同じ方向に頭部を動作させる場合と、注視対象物体の移動方向と逆方向に頭部を動作させる場合では動作速度が異なることも予想される。したがって、本発明では、物体の移動方向及び速度ごとに異なるユーザ動作対応テーブルを用意し、その中から注視対象物体の移動方向及び平均速度Pに対応するものを選択する。
図9は本発明におけるユーザ動作対応テーブルの例である。図9において、物体の移動方向及び物体の移動速度ごとに異なるユーザ動作対応テーブルが記憶部2に格納されている。各ユーザ動作対応テーブルには、物体の移動方向ごとに、ユーザ動作と、基準動きベクトル(X´、Y´)と、公差範囲とが対応付けられて格納されている。例えば、P=15(画素/フレーム)、注視対象物体の移動方向が左向きであった場合、動作判定部8は、上から1行目(物体の移動方向左)左から2列目(移動速度10以上20未満)の表をユーザ動作の判定処理に用いるユーザ動作対応テーブルとして選択する。
次に、動作判定部8は、ステップS505において動作判定部8が選択したユーザ動作対応テーブルにおいて、該テーブル内の基準動きベクトル(X´、Y´)と平均動きベクトル(X、Y)とを比較してユーザの動作を判定する(ステップS506)。
例えば、ステップS505において上述の表が選択されたとき、ステップS504において求められた平均動きベクトルが(−13.1、2.6)であった場合について説明する。このとき、基準ベクトル(−15,0)に最もベクトル量が近く、さらに予め許容量として定めた公差範囲(±5,±5)以内であるため、動作判定部8は、ユーザは頭部を右に振ったと判定する。なお、ユーザ動作、基準動きベクトル、公差範囲は、上記した値に限らずシステム管理者等が任意に設定できる。また、本実施例では物体の移動速度を10画素/フレームごとに区切ってユーザ動作対応テーブルを作成したが、実際には本発明の趣旨を逸脱しない範囲で種々の方法を用いることができる。
このように、動作判定部8はユーザの動きベクトルを物体の移動速度に応じたフレーム数で平均することで平均動きベクトルを算出し、該平均動きベクトルと物体の移動方向及び速度に応じたユーザ動作対応テーブルとを用いてユーザの動作を判定する。
[動作判定部8の第二の処理フロー]
図10は、動作判定部8による第二のユーザの動作判定処理のフローチャートである。動作判定部8は、物体の移動速度に応じた所定のフレーム数を算出することなく、ユーザ動作の往路の開始および終了を検出し、その間の動きベクトルの累積値または平均を用いてユーザの動作を判定することもできる。なお、以降の説明では動きベクトルの累積値を用いた場合について説明する。
まず、動作判定部8は、動作量算出部7が算出した注視対象物体の動きベクトル(x´´、y´´)を、メモリ14に格納する(ステップS601)。次に、動作判定部8は、動きベクトルが往路の開始条件及び終了条件の両方を満たしているか否か判定する(ステップS602)。前述のように、動作判定部8は、往路の開始および終了を予め定められた周知のアルゴリズムによって認識することができる。動きベクトルが往路の開始条件及び終了条件を満たしていないと判定された場合(ステップS602:No)、動作判定部8は、ステップS601に処理を戻す。
動きベクトルが往路の開始条件及び終了条件を満たしていると判定された場合(ステップS602:Yes)、動作判定部8は、往路の開始フレームから終了フレームまでの動きベクトルの累積値を算出する(ステップS603)。
次に、動作判定部8は、注視対象物体の移動方向及び平均速度Pに応じたユーザ動作対応テーブルを選択する(ステップS604)。なお、本処理フローを適用する場合、各ユーザ動作対応テーブルには、ユーザ動作と、動きベクトルのモデル累積値と、公差範囲とが対応付けられて格納されているものとする。
動作判定部8は、ステップS604において動作判定部8が選択したユーザ動作対応テーブルにおいて、該テーブル内の動きベクトルのモデル累積値とステップS603において算出された動きベクトルの累積値とを比較してユーザの動作を判定する(ステップS605)。
このように、ユーザの頭部動作の往路の開始および終了を検出し、往路にかかったフレーム数の動きベクトルの累積値または平均値を用いてユーザの動作を判定することにより、ユーザの動作をより正確に判定することができる。なお、判定には往路の動きベクトル累積値または平均値だけでなく、復路の動きベクトル累積値または平均値、あるいは往路と復路両方の動きベクトル累積値または平均値を用いてもよい。ただし、往路と復路両方の動きベクトル累積値または平均値を用いる場合は、動きベクトルの絶対値を用いて累積値または平均値を得るものとする。
また、動作量算出部7は動きベクトルを所定のフレーム数蓄積することでユーザの動きベクトルの時間変化パターンを生成し、動作判定部8は該時間変化パターンをユーザの動作をモデル化したモデル時間変化パターンのうちのいずれかと対応付けることでユーザの動作を判定することも可能である。図11は異なる物体の移動速度におけるユーザの動きベクトルのモデル時間変化パターンの例である。図11において、(a)は物体が静止している場合におけるユーザの頭部動作時の動きベクトルのモデル時間変化パターン、(b)は物体が低速で移動している場合におけるユーザの頭部動作時の動きベクトルのモデル時間変化パターン、(c)は物体が高速で移動している場合におけるユーザの頭部動作時の動きベクトルのモデル時間変化パターンを表している。
図11(a)において、フレーム番号9〜15(合計7フレーム)が往路に、フレーム番号16〜28(合計13フレーム)が復路に相当する。また、図11(b)においては、フレーム番号11〜15(合計5フレーム)が往路に、フレーム番号16〜23(合計8フレーム)が復路に相当する。同様に、図11(c)においてはフレーム番号11〜14(合計4フレーム)が往路に、フレーム番号15〜21(合計7フレーム)が復路に相当する。このように、モデル時間変化パターンは、ユーザが高速で移動する物体を注視しているときの頭部動作ほど、動作時間が短く、かつ動きベクトルが大きくなるように設定されている。
本実施例では、モデル時間変化パターンは物体の移動方向及び移動速度ごとにあらかじめ作成され記憶部2に格納されている。動作判定部8は、物体の移動方向及び移動速度に応じたモデル時間変化パターンを選択し、先願(特願2011−268378)と同様の方法でユーザの動作を判定する。また、動作判定部8は、実際のユーザの動作に応じて、前記モデル時間変化パターンを修正してもよい。具体的には、モデル時間変化パターンとユーザの動きベクトルの時間変化パターンとを対応付けたとき、該モデル時間変化パターンを該ユーザの動きベクトルの時間変化パターンに更新することで、よりユーザの動作に近いモデル時間変化パターンを動作判定に用いることができる。
また、物体の移動速度に応じたユーザの動きベクトルの時間変化パターンの変化が予想可能である場合は、ある物体の移動速度(例えば、物体が静止しているとき)におけるモデル時間変化パターンを移動速度に応じて変形させることで移動速度ごとのモデル時間変化パターンを作成してもよい。また、モデル時間変化パターンとユーザの動きベクトルの時間変化パターンとを照合する際は、例えば、往路のみ照合、往路及び復路を照合など、照合に用いる箇所を限定してもよい。
なお、モデル時間変化パターンと動きベクトルの時間変化パターンとの比較には、先願(特願2011−268378)に開示された類似度計算のほか、双方の時間変化パターンの特徴量を抽出して比較する方法や、双方の時間変化パターンをハッシュ関数等で数値化し、双方の数値のマッチングをとる方法等を用いることができる。
ここまで、物体の移動方向は水平もしくは垂直方向であるものとして説明を行ってきたが、本実施例は物体が斜め方向に移動している場合にも適用可能である。この場合は、移動推定部5にて取得した物体の動きベクトルを、首の回転方向に対して平行な成分と、首の回転方向に対して垂直な成分とで表すことで、以降は物体が水平または垂直に動く場合と同様に扱うことができる。
以上説明したように、本実施例によれば、ユーザが動いている物体を注視している場合におけるユーザの動作を検知することができる。
図12は、一つの実施形態による画像処理装置1を含むHMD300の構成図である。HMD300には、ユーザが注視対象物体を特定しやすいように、眼鏡型の筐体を用いて撮像装置100を両目の中心に位置するように配置してもよい。また、図示しないが撮像装置100を複数配置してステレオ映像を用いてもよい。表示装置200には、ユーザが外界を認識できるようにシースルー型ディスプレイを用いてもよい。
また、図示した各装置の各構成要素は、必ずしも物理的に図示のごとく構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各部の負荷や使用状況などに応じて任意の単位で機能的または物理的に分散・統合して構成することができる。また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。
1 画像処理装置
2 記憶部
3 取得部
4 物体認識部
5 移動推定部
6 注視判定部
7 動作量算出部
8 動作判定部
9 表示部
10 CPU
11 不揮発メモリ
12 入力インタフェース
13 出力インタフェース
14 メモリ
15 バス
100 撮像装置
200 表示装置
300 HMD

Claims (6)

  1. ユーザの視野方向の画像データを取得する取得部と、
    前記画像データ中の第一の領域から特徴点を抽出し、抽出した特徴点と前記記憶部に記憶されている物体の特徴点を対応付けることによって、前記画像データに含まれる第一の物体を認識する物体認識部と、
    前記第一の物体に対応する特徴点のうち、前記第一の物体に対応する特徴点が画像中心方向に移動しているときの位置変動量を、取得時間が異なる複数の前記画像データから算出し、該位置変動量から、前記第一の物体の移動速度を算出する移動推定部と、
    取得時間が異なる複数の前記画像データ間における前記第一の物体の位置変動量から求められた該第一の物体の挙動と、前記第一の領域の内側に位置し、前記画像データの中心点を含む第二の領域に前記物体が所定の時間継続して存在するか否か、とに応じて、前記第一の物体がユーザの注視対象物体か否か判定する注視判定部と、
    前記第一の物体がユーザの注視対象物体であると判定されたとき、前記第一の物体に対応する特徴点の位置変動量を、取得時間が異なる複数の前記画像データから算出する動作量算出部と、
    前記第一の物体の移動速度と前記位置変動量とに基づいて、前記ユーザの動作に要する時間を推定し、推定された時間に基づいて前記ユーザの動作を判定する動作判定部と、
    を含むことを特徴とする画像処理装置。
  2. 前記移動推定部は、前記第一の物体に対応する特徴点のうち、前記第一の物体に対応する特徴点が前記画像データ中の中心点を含む第二の領域の外側を画像中心方向に移動しているときの該特徴点の位置変動量と移動方向とに基づいて前記第一の物体の移動速度を推定することを特徴とする、請求項1に記載の画像処理装置。
  3. 前記注視対象物体の移動速度に対応付けられたユーザ動作対応テーブルと記憶した記憶部を備え、
    前記動作判定部は、前記第一の物体の移動速度と移動方向とに基づいて前記ユーザ動作対応テーブルを選択し、選択された前記ユーザ動作対応テーブルを参照して前記第一の物体の移動速度と移動方向と前記動きベクトルの時間平均とに基づいて前記ユーザの動作を判定することを特徴とする、請求項1または2のいずれか1項に記載の画像処理装置。
  4. 前記動作量算出部は、取得時間が異なるフレーム間の前記動きベクトルを所定量蓄積することで動きベクトルの時間変化パターンを生成し、
    前記記憶部には、前記ユーザの動作と動きベクトルとを対応付けたモデル時間変化パターンが、物体の移動方向及び物体の移動速度ごとに予め格納されており、
    前記動作判定部は、前記第一の物体の移動速度と移動方向とに基づいて前記モデル時間変化パターンを選択し、前記動きベクトルの時間変化パターンとの類似度を比較することにより、前記ユーザの動作を判定する
    ことを特徴とする、請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. ユーザの視野方向の画像データを取得し、
    前記画像データ中の第一の領域から特徴点を抽出し、抽出した特徴点と前記記憶部に記憶されている物体の特徴点を対応付けることによって、前記画像データに含まれる第一の物体を認識し、
    前記第一の物体に対応する特徴点のうち、前記第一の物体に対応する特徴点が画像中心方向に移動しているときの位置変動量を、取得時間が異なる複数の前記画像データから算出し、該位置変動量から、前記第一の物体の移動速度を算出し、
    取得時間が異なる複数の前記画像データ間における前記第一の物体の位置変動量から求められた該第一の物体の挙動と、前記第一の領域の内側に位置し、前記画像データの中心点を含む第二の領域に前記物体が所定の時間継続して存在するか否かとに応じて、前記第一の物体がユーザの注視対象物体か否か判定し、
    前記第一の物体がユーザの注視対象物体であると判定されたとき、前記第一の物体に対応する特徴点の位置変動量を、取得時間が異なる複数の前記画像データから算出し、
    前記第一の物体の移動速度と前記位置変動量とに基づいて、前記ユーザの動作に要する時間を推定し、推定された時間に基づいて前記ユーザの動作を判定する
    ことを特徴とする画像処理方法。
  6. ユーザの視野方向の画像データを取得し、
    前記画像データ中の第一の領域から特徴点を抽出し、抽出した特徴点と前記記憶部に記憶されている物体の特徴点を対応付けることによって、前記画像データに含まれる第一の物体を認識し、
    前記第一の物体に対応する特徴点のうち、前記第一の物体に対応する特徴点が画像中心方向に移動しているときの特徴点の位置変動量を、取得時間が異なる複数の前記画像データから算出し、該位置変動量から、前記第一の物体の移動速度を算出し、
    取得時間が異なる複数の前記画像データ間における前記第一の物体の位置変動量から求められた該第一の物体の挙動と、前記第一の領域の内側に位置し、前記画像データの中心点を含む所定の領域に前記物体が所定の時間継続して存在するか否かとに応じて、前記第一の物体がユーザの注視対象物体か否か判定し、
    前記第一の物体がユーザの注視対象物体であると判定されたとき、前記第一の物体に対応する特徴点の位置変動量を、取得時間が異なる複数の前記画像データから算出し、
    前記第一の物体の移動速度と前記位置変動量とに基づいて、前記ユーザの動作に要する時間を推定し、推定された時間に基づいて前記ユーザの動作を判定する
    処理をコンピュータに実行させることを特徴とする画像処理プログラム。
JP2012191128A 2012-08-31 2012-08-31 画像処理装置、画像処理方法及び画像処理プログラム Expired - Fee Related JP6015250B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012191128A JP6015250B2 (ja) 2012-08-31 2012-08-31 画像処理装置、画像処理方法及び画像処理プログラム
US13/946,546 US9542003B2 (en) 2012-08-31 2013-07-19 Image processing device, image processing method, and a computer-readable non-transitory medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012191128A JP6015250B2 (ja) 2012-08-31 2012-08-31 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2014048882A true JP2014048882A (ja) 2014-03-17
JP6015250B2 JP6015250B2 (ja) 2016-10-26

Family

ID=50187664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012191128A Expired - Fee Related JP6015250B2 (ja) 2012-08-31 2012-08-31 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (2)

Country Link
US (1) US9542003B2 (ja)
JP (1) JP6015250B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108573241A (zh) * 2018-04-25 2018-09-25 江西理工大学 一种基于融合特征的视频行为识别方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581235B (zh) * 2012-07-27 2016-02-24 腾讯科技(深圳)有限公司 一种闪屏推送方法及服务器
TWI479430B (zh) * 2012-10-08 2015-04-01 Pixart Imaging Inc 以自然影像進行的手勢辨識方法
JP6062251B2 (ja) * 2013-01-11 2017-01-18 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、携帯端末、およびサーバ
IL308285A (en) 2013-03-11 2024-01-01 Magic Leap Inc System and method for augmentation and virtual reality
NZ712192A (en) 2013-03-15 2018-11-30 Magic Leap Inc Display system and method
US10620900B2 (en) * 2014-09-30 2020-04-14 Pcms Holdings, Inc. Reputation sharing system using augmented reality systems
CN106033601B (zh) * 2015-03-09 2019-01-18 株式会社理光 检测异常情形的方法和装置
US9874932B2 (en) * 2015-04-09 2018-01-23 Microsoft Technology Licensing, Llc Avoidance of color breakup in late-stage re-projection
US10963063B2 (en) * 2015-12-18 2021-03-30 Sony Corporation Information processing apparatus, information processing method, and program
CN106354258B (zh) * 2016-08-30 2019-04-05 上海乐相科技有限公司 一种虚拟现实设备的画面显示方法及装置
JP6948787B2 (ja) * 2016-12-09 2021-10-13 キヤノン株式会社 情報処理装置、方法およびプログラム
US11107183B2 (en) * 2017-06-09 2021-08-31 Sony Interactive Entertainment Inc. Adaptive mesh skinning in a foveated rendering system
GB2565302B (en) * 2017-08-08 2022-04-13 Sony Interactive Entertainment Inc Head-mountable apparatus and methods
GB2574882B (en) * 2018-06-22 2020-08-12 Sony Interactive Entertainment Inc Method and system for displaying a virtual object
US11170565B2 (en) 2018-08-31 2021-11-09 Magic Leap, Inc. Spatially-resolved dynamic dimming for augmented reality device
CN113544570A (zh) 2019-01-11 2021-10-22 奇跃公司 各种深度处的虚拟内容的时间复用显示

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048513A (ja) * 2000-05-26 2002-02-15 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
JP2003198886A (ja) * 2001-12-28 2003-07-11 Sony Corp 情報処理システム
WO2010143377A1 (ja) * 2009-06-08 2010-12-16 パナソニック株式会社 注視対象判定装置及び注視対象判定方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2688526B2 (ja) 1989-09-25 1997-12-10 日本電信電話株式会社 注視方向予測装置
JP3165053B2 (ja) 1997-01-30 2001-05-14 日本電気アイシーマイコンシステム株式会社 積分回路
US6236736B1 (en) * 1997-02-07 2001-05-22 Ncr Corporation Method and apparatus for detecting movement patterns at a self-service checkout terminal
JP3735086B2 (ja) 2002-06-20 2006-01-11 ウエストユニティス株式会社 作業誘導システム
JP4824793B2 (ja) 2009-07-06 2011-11-30 東芝テック株式会社 ウエアラブル端末装置及びプログラム
JP5780142B2 (ja) 2011-12-07 2015-09-16 富士通株式会社 画像処理装置、画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002048513A (ja) * 2000-05-26 2002-02-15 Honda Motor Co Ltd 位置検出装置、位置検出方法、及び位置検出プログラム
JP2003198886A (ja) * 2001-12-28 2003-07-11 Sony Corp 情報処理システム
WO2010143377A1 (ja) * 2009-06-08 2010-12-16 パナソニック株式会社 注視対象判定装置及び注視対象判定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016021479; 小泉敬寛, 外2名: '"個人視点映像を用いた体験の記録と想起の支援"' 画像ラボ 第22巻, 第11号, 20111110, p.1-6, 日本工業出版株式会社 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108573241A (zh) * 2018-04-25 2018-09-25 江西理工大学 一种基于融合特征的视频行为识别方法

Also Published As

Publication number Publication date
US20140064557A1 (en) 2014-03-06
JP6015250B2 (ja) 2016-10-26
US9542003B2 (en) 2017-01-10

Similar Documents

Publication Publication Date Title
JP6015250B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN106415445B (zh) 用于观看者关注区域估计的技术
JP7191714B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US10082879B2 (en) Head mounted display device and control method
US10671156B2 (en) Electronic apparatus operated by head movement and operation method thereof
US8942434B1 (en) Conflict resolution for pupil detection
KR101606628B1 (ko) 포인팅 방향 검출 장치 및 그 방법과, 프로그램 및 컴퓨터 판독가능한 매체
JP5780142B2 (ja) 画像処理装置、画像処理方法
US20170255260A1 (en) Information processing apparatus, information processing method, and program
JP6075110B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2018205819A (ja) 注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法
US20150153834A1 (en) Motion input apparatus and motion input method
JP2017102598A (ja) 認識装置、認識方法および認識プログラム
US20160140762A1 (en) Image processing device and image processing method
Neto et al. Real-time head pose estimation for mobile devices
JP6011154B2 (ja) 画像処理装置、画像処理方法
US11340706B2 (en) Gesture recognition based on depth information and computer vision
KR101844367B1 (ko) 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
Hong et al. Challenges of eye tracking systems for mobile XR glasses
JP2016162234A (ja) 注目領域検出装置、注目領域検出方法及びプログラム
JP6287527B2 (ja) 情報処理装置、方法及びプログラム
CN108509853A (zh) 一种基于摄像头视觉信息的手势识别方法
JP2017169685A (ja) 視線推定装置及び視線推定方法
TWI596542B (zh) Image display method
JP2023130230A (ja) Ar表示装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150512

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160912

R150 Certificate of patent or registration of utility model

Ref document number: 6015250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees