JP6090140B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6090140B2
JP6090140B2 JP2013256012A JP2013256012A JP6090140B2 JP 6090140 B2 JP6090140 B2 JP 6090140B2 JP 2013256012 A JP2013256012 A JP 2013256012A JP 2013256012 A JP2013256012 A JP 2013256012A JP 6090140 B2 JP6090140 B2 JP 6090140B2
Authority
JP
Japan
Prior art keywords
hand
posture
information processing
user
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013256012A
Other languages
English (en)
Other versions
JP2015114818A (ja
Inventor
達雄 藤原
達雄 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013256012A priority Critical patent/JP6090140B2/ja
Priority to US14/560,262 priority patent/US9256292B2/en
Publication of JP2015114818A publication Critical patent/JP2015114818A/ja
Priority to US14/987,385 priority patent/US9766711B2/en
Application granted granted Critical
Publication of JP6090140B2 publication Critical patent/JP6090140B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional [3D], e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本技術は、撮像画像から物体を認識可能な情報処理装置、当該情報処理装置における情報処理方法及びプログラムに関する。
従来から、例えば机、床、壁等の実世界での平面を操作対象とするシステムが提案されている。
例えば下記特許文献1には、プロジェクタによって机等の平面の所定領域にボタンを含む画像を投影し、所定領域内に置かれた指がボタンに触れたことをカメラで検出すると、カメラの撮像画像をキャプチャする装置が開示されている。
特開2010−250464号公報
また、例えばゲーム等の分野において、立体物の形状や3次元位置を画像から計測する3次元計測技術を用いて、ユーザのジェスチャを認識してジェスチャに応じた処理を実行するシステムも存在する。当該3次元計測技術には、ステレオ等のパッシブ方式または画像ベースによる手法と、IRパターン等を照射するアクティブ方式による手法が存在する。
上記特許文献1に記載の技術では、平面のうちプロジェクタによる投影領域がユーザの操作領域として予め定められている。しかし、例えば平面上に仮想的に表示される3次元画像が操作対象とされる場合には、上記パッシブ方式または画像ベースによる手法では、深度・形状の取得が非常に困難である。
また、アクティブ方式による手法でも、照射信号が届く距離範囲を超えた場合や、日射等の条件によっては、やはり形状情報の取得が困難な場合があった。
したがって、いずれの方式でも、上記平面上の操作領域を定めることが困難であった。
以上のような事情に鑑み、本技術の目的は、実世界の平面または空間上に仮想的に表示される3次元画像を用いた操作対象の領域を容易に定めることが可能な情報処理装置、当該情報処理装置における情報処理方法及びプログラムを提供することにある。
上述の課題を解決するため、本技術の一形態に係る情報処理装置は、入力部と制御部とを有する。上記入力部は、撮像装置により撮像された画像が逐次入力されるように構成される。上記制御部は、上記入力された画像からユーザの手を検出し、当該検出された手の移動中の位置、姿勢及び大きさを認識し、当該認識された手の位置、姿勢及び大きさの推移を基に、上記手が移動した面上の所定領域を操作領域として定義し、上記操作領域上に配置される上記ユーザの操作用の仮想三次元オブジェクトを生成するように構成される。
この構成により情報処理装置は、手の位置、姿勢及び大きさの推移を基に、実世界の平面または空間上に仮想的に表示される3次元画像を用いた操作対象の領域を容易に定めることができる。
上記制御部は、上記ユーザの2つの手を検出し、上記移動後の手間の距離を基に上記操作領域を定義してもよい。
これにより情報処理装置は、手間の距離を基準にして操作領域を容易に定義することができる。
上記制御部は、上記手間の距離を対角線として有する矩形領域を上記操作領域として定義してもよい。
これによりユーザは、両手を左右または上下に広げるという直感的な操作により操作領域を定めることができる。
上記制御部は、上記ユーザに上記手を動かすよう指示する指示情報を生成し、当該指示情報を出力してもよい。
これにより情報処理装置は、操作領域の定義のための動作をユーザに容易に実行させることができる。ここで指示情報は、画像でもよいし音声でもよい。画像は検出された手の近傍に仮想的にまたは投影表示されてもよい。
手の平均的形状を示す平均手画像と、手の姿勢変化に関する姿勢パラメータと、手の個人差に関する個人差パラメータとを記憶するように構成された記憶部をさらに具備してもよい。この場合上記制御部は、上記入力された画像と上記平均手画像とをマッチングすることで上記手を検出し、上記平均的形状から、上記姿勢パラメータ及び上記個人差パラメータを変動させて手の三次元モデルを生成し、当該生成された三次元モデルをレンダリングし、上記レンダリングされた画像から抽出されたエッジ成分と、上記入力された画像から抽出されたエッジ成分とをマッチングすることで、上記ユーザの手の姿勢を認識してもよい。
これにより情報処理装置は、姿勢パラメータと個人差パラメータとを変動させて三次元モデルを逐次生成して入力画像とマッチングすることで、テクスチャ成分に乏しく形状変化の幅の広いユーザの手の姿勢を高精度に認識することができる。
上記制御部は、上記ユーザの手の移動中に、上記マッチングによる姿勢認識時の上記個人差パラメータを固定し、上記姿勢パラメータを変動させて上記手の姿勢を認識してもよい。
これにより情報処理装置は、ある入力画像から姿勢を認識した後は、後続の入力画像における姿勢認識においては個人差パラメータを固定することで、レンダリングに要する時間を削減し、高速に姿勢を認識することができる。
上記記憶部は、上記入力される画像のフレーム間隔において手の姿勢が変化し得る範囲を示す変化範囲情報を記憶してもよい。この場合上記制御部は、上記記憶された変化範囲情報を基に、上記姿勢パラメータの変動範囲を限定してもよい。
これにより情報処理装置は、姿勢パラメータの変動範囲を限定することで、マッチングの試行回数を大幅に減らすことができ、高速に姿勢を認識することができる。
上記制御部は、上記仮想三次元オブジェクトに対するユーザの操作時に、上記個人差パラメータを固定し上記姿勢パラメータを変動させて上記手の姿勢を認識してもよい。
これにより情報処理装置は、操作領域の定義に用いたパラメータを、操作時にも用いることができる。
本技術の他の形態に係る情報処理方法は、
撮像装置により撮像され逐次入力された画像からユーザの手を検出すること、
上記検出された手の移動中の位置、姿勢及び大きさを認識すること、
上記認識された手の位置、姿勢及び大きさの推移を基に、上記手が移動した面上の所定領域を操作領域として定義すること、及び、
上記操作領域上に配置される上記ユーザの操作用の仮想三次元オブジェクトを生成することを含む。
本技術のまた別の形態に係るプログラムは、情報処理装置に、
撮像装置により撮像され逐次入力された画像からユーザの手を検出するステップと、
上記検出された手の移動中の位置、姿勢及び大きさを認識するステップと、
上記認識された手の位置、姿勢及び大きさの推移を基に、上記手が移動した面上の所定領域を操作領域として定義するステップと、
上記操作領域上に配置される上記ユーザの操作用の仮想三次元オブジェクトを生成するステップと
を実行させる。
以上のように、本技術によれば、実世界の平面または空間上に仮想的に表示される3次元画像を用いた操作対象の領域を容易に定めることができる。しかし、当該効果は必ずしも本技術を限定するものではない。
本技術の一実施形態におけるシステムの概要を示した図である。 上記システムにおけるヘッドマウントディスプレイのハードウェア構成を示したブロック図である。 上記ヘッドマウントディスプレイが保持するデータベースについて説明した図である。 上記ヘッドマウントディスプレイの操作領域定義処理の流れを示したフローチャートである。 上記操作領域の定義方法の例を示した図である。 上記操作領域定義処理における手のフィッティング及びトラッキング処理の詳細を示したフローチャートである。 上記フィッティング処理におけるレンダリングの様子を示した図である。 上記フィッティング処理における輪郭成分の抽出処理の様子を示した図である。 上記フィッティング処理における輪郭成分のマッチング処理の様子を示した図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[システムの概要]
図1は、本技術の一実施形態に係るシステムの概要を示した図である。
同図に示すように、本実施形態では、ユーザの頭部に装着されたシースルー眼鏡型のHMD(Head Mount Display)100により、例えばテーブルT等の平面上にあたかも存在するように表示される仮想三次元オブジェクトOがユーザの操作対象とされ、いわゆるバーチャルデスクトップ環境が実現される。
テーブルTの平面上では、操作領域Rが定義される。ユーザは、外界を視認しながら、当該操作領域R内に表示される仮想三次元オブジェクトOを、指等により操作することが可能である。
本実施形態において、HMD100は、上記ユーザの操作開始時の初期化処理として、ユーザの手を用いた初期化動作を基に、操作領域Rを定義することが可能である。
[HMDのハードウェア構成]
図2は、上記HMD100のハードウェア構成を示したブロック図である。
同図に示すように、HMD100は、制御部11、記憶部12、通信部13、センサ部14、操作受付部15、右カメラ16、左カメラ17及び表示部18を有する。
制御部11は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等からなり、上記初期化処理等において、各種演算処理を行いながらHMD100の各ブロック全体を統括的に制御しながら、三次元オブジェクトOの描画処理等の画像処理を担う。
記憶部12は、例えばフラッシュメモリ(SSD;Solid State Drive)、その他の固体メモリ等の不揮発性メモリである。記憶部12は、OSや各種アプリケーション、各種データを記憶する。特に本実施形態においては、記憶部12は、後述するユーザの手の検出及びトラッキングのための辞書データやパラメータデータ等を記憶する。
通信部13は、例えばWiFi(Wireless Fidelity)等の無線LAN(Local Area Network)やBluetooth(登録商標)等の規格に対応した無線通信モジュールであり、例えばユーザの携帯するスマートフォン等の機器と通信可能とされている。
センサ部14は、ジャイロセンサ、加速度センサ、地磁気センサ等の各種センサから構成され、仮想三次元オブジェクトOの表示処理のために、HMD100(ユーザ)の姿勢、位置、方向等を検出する。
操作受付部15は、例えばタッチパネル、ボタン、スイッチ等からなり、ユーザの各種操作を受け付ける。
右カメラ16及び左カメラ17は、それぞれ例えばHMD100の右フレーム及び左フレームに設けられ(図1参照)、両者で撮影された画像間の視差から、ユーザの前方環境の物体の位置、立体的形状及び深度を認識するステレオカメラとして機能する。本実施形態における上記初期化処理においては、右カメラ16及び左カメラ17は、ユーザの手及びその周囲の環境(テーブルT等)を検出するのに用いられる。
表示部18は、透過ディスプレイとして構成され、表示素子181と光学部材182とを有する。表示部18は、例えばHMD100のフレーム部に収容される表示素子181により三次元画像を形成し、その画像光を光学部材182内に導光しユーザの目に出射することで、三次元画像をユーザに提示する。
表示素子181は例えばLCD(Liquid Crystal Display)で構成される。光学部材182は、偏向素子(ホログラム回折格子)及び表示面としての導光板を有し、偏光素子によりRGBの各色に対応する特定波長の光が回折反射され、導光板内で全反射されることで画像がユーザの目に出射される。
[HMDのデータベース構成]
次に、HMD100が有する記憶部12上のデータベースについて説明する。図3は、当該データベースについて説明した図である。
同図に示すように、HMD100は、手の指や掌の長さや太さといった手の個人差を表すパラメータ(個人差パラメータ)と、掌及び指の姿勢変化(掌の位置/傾き、指の曲げ具合/広げ具合)のバリエーションを表すパラメータ(姿勢パラメータ)とを記憶している。
具体的には、人間の手は5本の指を有し、各指は3つの関節によって掌方向に曲げが可能とされ、また掌に平行な方向にも曲げが可能とされていることから、指の曲げについては(3+1)×5=20のパラメータが存在する。また手のグローバルな位置(x, y, z)は、例えば掌上の1つの点を原点として表される。さらに、手のグローバルな回転方向は、四元数を用いて表される。
したがって、手の姿勢は、例えば20(曲げ)+3(位置)+4(回転)=27のパラメータで表すことができる。
HMD100は、これらのパラメータを組み合わせて変動させて三次元モデルを生成して逐次レンダリングし、入力画像とのマッチングをとることで、ユーザの手の姿勢を認識することが可能となる。
これらパラメータ以外にも、HMD100は、入力画像から最初に手の存在を検出するために、平均的な手の形状(例えば5本の指を全て開いた状態)のエッジ分布を辞書として記憶している。
また、個人差及び姿勢に関するパラメータに加えて、照明条件や動きボケ、指輪やマニキュア等の装飾の有無等などについてもパラメータが記憶されてもよい。
[HMDの動作]
次に、以上のように構成されたHMD100の動作について説明する。以降の説明においては、HMDの制御部11を主な動作主体として説明するが、この動作は制御部11の制御下において実行される他のハードウェア及びソフトウェアと協働して行われる。
図4は、HMD100が操作領域Rを定義する処理の流れを示したフローチャートである。また図5は、当該操作領域Rの定義処理方法の例を示した図である。
同図に示すように、HMD100の制御部11はまず、上記カメラ16及び17から、ユーザの視線方向の画像群を入力する(ステップ41)。
この時点で、ユーザはテーブルT上に両手を軽く揃えた形で載置する。
続いて制御部11は、上記入力画像から手を検出し、当該手の形状を詳細にフィッティングする(ステップ42)。この手のフィッティング処理の詳細については後述する。
手が検出された場合(ステップ43のYes)、制御部11は、ユーザに、手を動かすように指示する(ステップ44)。例えば制御部11は、図5Aに示すように、両手(H1,H2)を対角線方向に広げるように動かすように、その方向を示す矢印51を表示部18に表示する。当該矢印は、ユーザにはテーブルT上に存在するように見える。
また制御部11はそれに代えて、両手を広げるように指示する音声ガイダンスを出力してもよい。この場合HMD100は、スピーカ等の音声出力部を有する。
上記指示に応じてユーザが手を動かすと、制御部11は、手の移動中の位置、姿勢及び大きさをトラッキングする(ステップ45)。このトラッキング処理の詳細についても後述するが、HMD100は、当該姿勢の遷移から、手の接地している平面を推定することが可能となる。
続いて制御部11は、ユーザの手の移動が止まったか否かを判断する(ステップ46)。
ユーザの手の移動が止まったと判断した場合(Yes)、制御部11は、図5Bに示すように、停止した両手間の距離を対角線とする矩形平面を操作領域Rとして定義する(ステップ47)。
両手間の距離は、具体的には、例えば右手H1の重心と左手H2の重心との間の距離とされるが、これに限られない。
そして制御部11は、操作用の仮想三次元オブジェクトを生成して、上記定義された操作領域R上に仮想的に存在するように、表示部18に重畳表示する(ステップ48)。これ以降、ユーザは指や掌等による当該仮想三次元オブジェクトに対する操作及びインタラクションが可能となる。
次に、上記手のフィッティング処理及びトラッキング処理の詳細について説明する。図6は、当該フィッティング処理及びトラッキング処理の流れを示したフローチャートである。
また図7は、上記フィッティング処理におけるレンダリングの様子を示した図であり、図8は、上記フィッティング処理における輪郭成分の抽出処理の様子を示した図であり、図9は、上記フィッティング処理における輪郭成分のマッチング処理の様子を示した図である。
図6に示すように、フィッティング処理において、制御部11はまず、入力画像からエッジ成分を検出する(ステップ61)。
続いて制御部11は、記憶部12に記憶されている、平均的な手の形状のエッジ分布データと、上記入力画像から検出されたエッジ分布とをマッチングする(ステップ62)。
当該マッチングに際しては、例えば上述したように初期化動作において指を広げた状態が想定されている場合等、初期化動作のルールに応じて、有る程度手指の形状を限定した形状のみがサーチされればよく、またその大まかな位置と形状が把握されればよい。したがって記憶部12には、上記限定した形状のエッジ分布のみが辞書として登録されていればよい。
上記エッジ分布同士がマッチングできた場合(ステップ63のYes)、制御部11は、三次元モデルを用いて、検出されたユーザの指の形状をより細かくフィッティングする。
具体的には、制御部11は、上記手の検出時にマッチングされた登録データ(初期形状)を基に、上記姿勢パラメータ及び個人差パラメータを変動させて、入力画像に最も近いパラメータを探す(ステップ64)。
この際、制御部11は、図7に示すように、設定されたパラメータを基に三次元ポリゴンモデルを生成し、それをレンダリングする。
ただし、手自体はテクスチャ成分に乏しいため、輪郭や凹凸による陰影などのエッジ成分に着目してフィッティングを行えば十分である。例えば制御部11は、図8に示すように、レンダリング結果の法線マップ及びデプスマップにエッジ検出を掛けることで(図8の左から2番目及び3番目のノーマルエッジ画像及びデプスエッジ画像)、輪郭等で生じるエッジ成分のみ抜き出した画像を生成する(ステップ65、図8の右端の輪郭成分画像)。
続いて制御部11は、図9に示すように、当該輪郭成分画像と、入力画像にエッジ検出を掛けたものの間で、上記検出処理と同様のエッジベースのマッチングを行なう(ステップ66)。これにより入力画像にフィットしたパラメータを決定することが可能となる。同図において、右から2番目のマッチング結果(c)はフィッティングが十分でない結果を示しており、右端のマッチング結果(d)が最も入力画像に近い結果を示したものである。
このマッチング処理においては、例えばICP(Iterative Closest Point)等、一般的なマッチングアルゴリズムが適用される。
そしてマッチングできた場合(ステップ67のYes)、制御部11は、後続フレームにおいても、上記と同様のフィッティングにより手の姿勢をトラッキングする。この際、制御部11は、個人差パラメータについては、同じユーザである限り変動しないはずであるので、それを固定した状態にして、姿勢パラメータのみ変動させる。
また制御部11は、入力画像のフレーム間隔などを基に、フレーム間で取り得る姿勢変化を限定することで、パラメータの変動範囲を狭い値域に限定することができる。この場合、記憶部12には、入力画像のフレーム間隔において手の姿勢が変化し得る範囲を示す変化範囲情報が記憶され、制御部11は当該変化範囲情報を基に姿勢パラメータを変動させる範囲を限定する。これによりフィッティングの試行回数が大幅に削減されるため、リアルタイムでの高速処理が可能となる。
ここで制御部11は、上記仮想三次元オブジェクトの表示後に、ユーザの手による操作を検出する際にも、上記個人差パラメータを固定し上記姿勢パラメータのみ変動させて手の姿勢を認識することが可能である。
また、ユーザが、例えば定義された操作領域Rが狭すぎると感じた場合等、操作領域Rの再定義が可能とされていてもよい。この場合制御部11は、例えば操作受付部15から、操作領域Rの再定義操作を受け付け、その後は上記図4で示した処理を実行すればよい。
以上のように、本実施形態によれば、HMD100は、ユーザの手の位置、姿勢及び大きさの推移を基に、テクスチャ成分に乏しい実世界の平面領域を認識し、当該平面領域上に仮想的に表示される3次元画像を用いた操作用の操作領域Rを容易に定義することができる。この際、ユーザは、両手を対角線に広げるという直感的な動作で容易に操作領域Rを定めることができる。またHMD100は、個人差や姿勢変化に関するパラメータを用いることで、テクスチャ成分に乏しい手の形状を高精度に検出して高速に捕捉することができる。
[変形例]
本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更され得る。
上述の実施形態においては、操作領域の定義のためのユーザの初期化動作として、ユーザの手が対角線状に広げられる動作が示されたが、初期化動作はこれに限られない。
例えば、予め矩形の操作領域のアスペクト比が定められており、両手を左右または上下に広げることで、両手間の距離が操作領域の縦方向または横方向の長さに設定されてもよい。
また、片手のみの動作によって操作領域が定められてもよい。例えば上記対角線状の動きが片手で実行されてもよいし、手が矩形状に動かされてその矩形領域が操作領域に定められてもよいし、手が円状に動かされてその円を最大限に含む所定のアスペクト比の矩形領域が操作領域に定められてもよい。
さらに、上述の実施形態において、制御部11は、ユーザが初期化動作において、対角線状の手の動きを右上がり(左下がり)で行なうか左上がり(右下がり)で行なうかに応じて、起動モードを切り替えることも可能である。
上述の実施形態においては、テーブルT上に操作領域Rが定義される例が示されたが、本技術はこの場合に限られない。例えば同様の処理は、床等の水平面のほか、壁面やホワイトボード等の鉛直面で実行されてもよいし、平面以外の任意の空間上で実行されてもよい。
上述の実施形態では、手の認識を例に挙げたが、コップその他陶器や什器、家具など、形状に個体差があり、かつテクスチャに乏しい物体の認識にも上記実施形態が適用可能である。
上述の実施形態では、ステレオカメラを有するシースルー眼鏡型のHMDが本技術に適用された例が示されたが、本技術はこれに限られない。例えば、同様のウェアラブルデバイスの表示部に網膜プロジェクタが用いられてもよい。さらに、シースルーでないHMD、スマートフォン、デスクトップPCのディスプレイ、プロジェクタ等の各種表示デバイスと、ステレオカメラ以外のTOF(Time of Flight)センサ、IR(infrared)パターン照射型の各種デプスセンサとが組み合わされて本技術が実現されてもよい。
[その他]
本技術は以下のような構成もとることができる。
(1)
撮像装置により撮像された画像が逐次入力されるように構成された入力部と、
前記入力された画像からユーザの手を検出し、当該検出された手の移動中の位置、姿勢及び大きさを認識し、当該認識された手の位置、姿勢及び大きさの推移を基に、前記手が移動した面上の所定領域を操作領域として定義し、前記操作領域上に配置される前記ユーザの操作用の仮想三次元オブジェクトを生成するように構成された制御部と
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
前記制御部は、前記ユーザの2つの手を検出し、前記移動後の手間の距離を基に前記操作領域を定義する
情報処理装置。
(3)
上記(2)に記載の情報処理装置であって、
前記制御部は、前記手間の距離を対角線として有する矩形領域を前記操作領域として定義する
情報処理装置。
(4)
上記(1)に記載の情報処理装置であって、
前記制御部は、前記ユーザに前記手を動かすよう指示する指示情報を生成し、当該指示情報を出力する
情報処理装置。
(5)
上記(1)に記載の情報処理装置であって、
手の平均的形状を示す平均手画像と、手の姿勢変化に関する姿勢パラメータと、手の個人差に関する個人差パラメータとを記憶するように構成された記憶部をさらに具備し、
前記制御部は、前記入力された画像と前記平均手画像とをマッチングすることで前記手を検出し、前記平均的形状から、前記姿勢パラメータ及び前記個人差パラメータを変動させて手の三次元モデルを生成し、当該生成された三次元モデルをレンダリングし、前記レンダリングされた画像から抽出されたエッジ成分と、前記入力された画像から抽出されたエッジ成分とをマッチングすることで、前記ユーザの手の姿勢を認識する
情報処理装置。
(6)
上記(5)に記載の情報処理装置であって、
前記制御部は、前記ユーザの手の移動中に、前記マッチングによる姿勢認識時の前記個人差パラメータを固定し、前記姿勢パラメータを変動させて前記手の姿勢を認識する
情報処理装置。
(7)
上記(6)に記載の情報処理装置であって、
前記記憶部は、前記入力される画像のフレーム間隔において手の姿勢が変化し得る範囲を示す変化範囲情報を記憶し、
前記制御部は、前記記憶された変化範囲情報を基に、前記姿勢パラメータの変動範囲を限定する
情報処理装置。
(8)
上記(6)に記載の情報処理装置であって、
前記制御部は、前記仮想三次元オブジェクトに対するユーザの操作時に、前記個人差パラメータを固定し前記姿勢パラメータを変動させて前記手の姿勢を認識する
情報処理装置。
11…制御部
12…記憶部
14…センサ部
16…右カメラ
17…左カメラ
18…表示部
51…矢印
100…HMD(Head Mount Display)

Claims (9)

  1. 撮像装置により撮像された画像が逐次入力されるように構成された入力部と、
    手の平均的形状を示す平均手画像と、手の姿勢変化に関する姿勢パラメータと、手の個人差に関する個人差パラメータとを記憶するように構成された記憶部と、
    前記入力された画像と前記平均手画像とをマッチングすることで前記入力された画像からユーザの手を検出し、
    当該検出された手の移動中の位置及び大きさを認識するとともに、前記平均的形状から、前記姿勢パラメータ及び前記個人差パラメータを変動させて手の三次元モデルを生成し、当該生成された三次元モデルをレンダリングし、前記レンダリングされた画像から抽出されたエッジ成分と、前記入力された画像から抽出されたエッジ成分とをマッチングすることで、前記検出された手の移動中の姿勢を認識し、
    当該認識された手の位置、大きさ及び姿勢の推移を基に、前記手が移動した面上の所定領域を操作領域として定義し、前記操作領域上に配置される前記ユーザの操作用の仮想三次元オブジェクトを生成するように構成された制御部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記ユーザの2つの手を検出し、前記移動後の手間の距離を基に前記操作領域を定義する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記手間の距離を対角線として有する矩形領域を前記操作領域として定義する
    情報処理装置。
  4. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記ユーザに前記手を動かすよう指示する指示情報を生成し、当該指示情報を出力する
    情報処理装置。
  5. 請求項に記載の情報処理装置であって、
    前記制御部は、前記ユーザの手の移動中に、前記マッチングによる姿勢認識時の前記個人差パラメータを固定し、前記姿勢パラメータを変動させて前記手の姿勢を認識する
    情報処理装置。
  6. 請求項に記載の情報処理装置であって、
    前記記憶部は、前記入力される画像のフレーム間隔において手の姿勢が変化し得る範囲を示す変化範囲情報を記憶し、
    前記制御部は、前記記憶された変化範囲情報を基に、前記姿勢パラメータの変動範囲を限定する
    情報処理装置。
  7. 請求項に記載の情報処理装置であって、
    前記制御部は、前記仮想三次元オブジェクトに対するユーザの操作時に、前記個人差パラメータを固定し前記姿勢パラメータを変動させて前記手の姿勢を認識する
    情報処理装置。
  8. 撮像装置により撮像され逐次入力された画像と、手の平均的形状を示す平均手画像とをマッチングすることで、前記入力された画像からユーザの手を検出し、
    前記検出された手の移動中の位置及び大きさを認識し、
    前記平均的形状から、手の姿勢変化に関する姿勢パラメータと、手の個人差に関する個人差パラメータとを変動させて手の三次元モデルを生成し、当該生成された三次元モデルをレンダリングし、前記レンダリングされた画像から抽出されたエッジ成分と、前記入力された画像から抽出されたエッジ成分とをマッチングすることで、前記検出された手の移動中の姿勢を認識し、
    前記認識された手の位置、大きさ及び姿勢の推移を基に、前記手が移動した面上の所定領域を操作領域として定義し、前記操作領域上に配置される前記ユーザの操作用の仮想三次元オブジェクトを生成する
    情報処理方法。
  9. 情報処理装置に、
    撮像装置により撮像され逐次入力された画像と、手の平均的形状を示す平均手画像とをマッチングすることで、前記入力された画像からユーザの手を検出するステップと、
    前記検出された手の移動中の位置及び大きさを認識するステップと、
    前記平均的形状から、手の姿勢変化に関する姿勢パラメータと、手の個人差に関する個人差パラメータとを変動させて手の三次元モデルを生成し、当該生成された三次元モデルをレンダリングし、前記レンダリングされた画像から抽出されたエッジ成分と、前記入力された画像から抽出されたエッジ成分とをマッチングすることで、前記検出された手の移動中の姿勢を認識するステップと、
    前記認識された手の位置、大きさ及び姿勢の推移を基に、前記手が移動した面上の所定領域を操作領域として定義し、前記操作領域上に配置される前記ユーザの操作用の仮想三次元オブジェクトを生成するステップと
    を実行させるプログラム。
JP2013256012A 2013-12-11 2013-12-11 情報処理装置、情報処理方法及びプログラム Expired - Fee Related JP6090140B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013256012A JP6090140B2 (ja) 2013-12-11 2013-12-11 情報処理装置、情報処理方法及びプログラム
US14/560,262 US9256292B2 (en) 2013-12-11 2014-12-04 Information processing apparatus, information processing method and program to recognize an object from a captured image
US14/987,385 US9766711B2 (en) 2013-12-11 2016-01-04 Information processing apparatus, information processing method and program to recognize an object from a captured image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013256012A JP6090140B2 (ja) 2013-12-11 2013-12-11 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015114818A JP2015114818A (ja) 2015-06-22
JP6090140B2 true JP6090140B2 (ja) 2017-03-08

Family

ID=53271133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013256012A Expired - Fee Related JP6090140B2 (ja) 2013-12-11 2013-12-11 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (2) US9256292B2 (ja)
JP (1) JP6090140B2 (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6248533B2 (ja) * 2013-10-22 2017-12-20 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
KR102209354B1 (ko) * 2014-06-20 2021-01-29 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
US10642349B2 (en) * 2015-05-21 2020-05-05 Sony Interactive Entertainment Inc. Information processing apparatus
JP6780315B2 (ja) * 2016-06-22 2020-11-04 カシオ計算機株式会社 投影装置、投影システム、投影方法及びプログラム
CN109478092A (zh) * 2016-07-12 2019-03-15 富士胶片株式会社 图像显示系统、以及头戴式显示器的控制装置及其工作方法和工作程序
US11275498B2 (en) * 2016-08-31 2022-03-15 Sony Corporation Information processing system, information processing method, and program
CN107315355B (zh) * 2017-06-30 2021-05-18 京东方科技集团股份有限公司 一种电器控制设备及方法
US11184574B2 (en) 2017-07-17 2021-11-23 Facebook, Inc. Representing real-world objects with a virtual reality environment
US10529136B2 (en) 2017-08-16 2020-01-07 Dell Products L.P. Augmented reality workspace system
US11334212B2 (en) 2019-06-07 2022-05-17 Facebook Technologies, Llc Detecting input in artificial reality systems based on a pinch and pull gesture
US10890983B2 (en) 2019-06-07 2021-01-12 Facebook Technologies, Llc Artificial reality system having a sliding menu
US11307647B2 (en) 2019-09-11 2022-04-19 Facebook Technologies, Llc Artificial reality triggered by physical object
US11189099B2 (en) 2019-09-20 2021-11-30 Facebook Technologies, Llc Global and local mode virtual object interactions
US11086406B1 (en) 2019-09-20 2021-08-10 Facebook Technologies, Llc Three-state gesture virtual controls
US11170576B2 (en) 2019-09-20 2021-11-09 Facebook Technologies, Llc Progressive display of virtual objects
US11176745B2 (en) 2019-09-20 2021-11-16 Facebook Technologies, Llc Projection casting in virtual environments
US10991163B2 (en) 2019-09-20 2021-04-27 Facebook Technologies, Llc Projection casting in virtual environments
US10802600B1 (en) * 2019-09-20 2020-10-13 Facebook Technologies, Llc Virtual interactions at a distance
US11086476B2 (en) * 2019-10-23 2021-08-10 Facebook Technologies, Llc 3D interactions with web content
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11176755B1 (en) 2020-08-31 2021-11-16 Facebook Technologies, Llc Artificial reality augments and surfaces
US11227445B1 (en) 2020-08-31 2022-01-18 Facebook Technologies, Llc Artificial reality augments and surfaces
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11113893B1 (en) 2020-11-17 2021-09-07 Facebook Technologies, Llc Artificial reality environment with glints displayed by an extra reality device
US11409405B1 (en) 2020-12-22 2022-08-09 Facebook Technologies, Llc Augment orchestration in an artificial reality environment
US11461973B2 (en) 2020-12-22 2022-10-04 Meta Platforms Technologies, Llc Virtual reality locomotion via hand gesture
US12223104B2 (en) 2020-12-22 2025-02-11 Meta Platforms Technologies, Llc Partial passthrough in virtual reality
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US12183035B1 (en) 2021-03-08 2024-12-31 Meta Platforms, Inc. System and method for positioning a 3D eyeglasses model
US11676348B2 (en) 2021-06-02 2023-06-13 Meta Platforms Technologies, Llc Dynamic mixed reality content in virtual reality
US11762952B2 (en) 2021-06-28 2023-09-19 Meta Platforms Technologies, Llc Artificial reality application lifecycle
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
US11521361B1 (en) 2021-07-01 2022-12-06 Meta Platforms Technologies, Llc Environment model with surfaces and per-surface volumes
US12008717B2 (en) 2021-07-07 2024-06-11 Meta Platforms Technologies, Llc Artificial reality environment control through an artificial reality environment schema
US12056268B2 (en) 2021-08-17 2024-08-06 Meta Platforms Technologies, Llc Platformization of mixed reality objects in virtual reality environments
US11748944B2 (en) 2021-10-27 2023-09-05 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11798247B2 (en) 2021-10-27 2023-10-24 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
TW202324172A (zh) 2021-11-10 2023-06-16 美商元平台技術有限公司 自動建立人工實境世界
US12093447B2 (en) 2022-01-13 2024-09-17 Meta Platforms Technologies, Llc Ephemeral artificial reality experiences
US11726578B1 (en) 2022-02-11 2023-08-15 Meta Platforms Technologies, Llc Scrolling and navigation in virtual reality
US20230260239A1 (en) * 2022-02-14 2023-08-17 Meta Platforms, Inc. Turning a Two-Dimensional Image into a Skybox
US12067688B2 (en) 2022-02-14 2024-08-20 Meta Platforms Technologies, Llc Coordination of interactions of virtual objects
US12164741B2 (en) 2022-04-11 2024-12-10 Meta Platforms Technologies, Llc Activating a snap point in an artificial reality environment
US11836205B2 (en) 2022-04-20 2023-12-05 Meta Platforms Technologies, Llc Artificial reality browser configured to trigger an immersive experience
US12026527B2 (en) 2022-05-10 2024-07-02 Meta Platforms Technologies, Llc World-controlled and application-controlled augments in an artificial-reality environment
US20230419617A1 (en) 2022-06-22 2023-12-28 Meta Platforms Technologies, Llc Virtual Personal Interface for Control and Travel Between Virtual Worlds
US12277301B2 (en) 2022-08-18 2025-04-15 Meta Platforms Technologies, Llc URL access to assets within an artificial reality universe on both 2D and artificial reality interfaces
US12097427B1 (en) 2022-08-26 2024-09-24 Meta Platforms Technologies, Llc Alternate avatar controls
US12175603B2 (en) 2022-09-29 2024-12-24 Meta Platforms Technologies, Llc Doors for artificial reality universe traversal
US12218944B1 (en) 2022-10-10 2025-02-04 Meta Platform Technologies, LLC Group travel between artificial reality destinations
US12444152B1 (en) 2022-10-21 2025-10-14 Meta Platforms Technologies, Llc Application multitasking in a three-dimensional environment
US12547237B1 (en) 2022-10-24 2026-02-10 Meta Platforms Technologies, Llc Artificial reality input for two-dimensional virtual objects
US11947862B1 (en) 2022-12-30 2024-04-02 Meta Platforms Technologies, Llc Streaming native application content to artificial reality devices
US12387449B1 (en) 2023-02-08 2025-08-12 Meta Platforms Technologies, Llc Facilitating system user interface (UI) interactions in an artificial reality (XR) environment
US12400414B2 (en) 2023-02-08 2025-08-26 Meta Platforms Technologies, Llc Facilitating system user interface (UI) interactions in an artificial reality (XR) environment
US12548245B2 (en) 2023-03-31 2026-02-10 Meta Platforms Technologies, Llc Rendering an artificial reality environment based on a defined hierarchy of multiple states including multiple artificial reality experiences with augments
US11991222B1 (en) 2023-05-02 2024-05-21 Meta Platforms Technologies, Llc Persistent call control user interface element in an artificial reality environment

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9082213B2 (en) * 2007-11-07 2015-07-14 Canon Kabushiki Kaisha Image processing apparatus for combining real object and virtual object and processing method therefor
JP5262681B2 (ja) * 2008-12-22 2013-08-14 ブラザー工業株式会社 ヘッドマウントディスプレイ及びそのプログラム
JP5347673B2 (ja) 2009-04-14 2013-11-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2011081480A (ja) * 2009-10-05 2011-04-21 Seiko Epson Corp 画像入力システム
JP5114795B2 (ja) * 2010-01-29 2013-01-09 島根県 画像認識装置および操作判定方法並びにプログラム
JP5845002B2 (ja) * 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
CA3051912C (en) * 2012-02-24 2023-03-07 Thomas J. Moscarillo Gesture recognition devices and methods
JP5646532B2 (ja) * 2012-03-26 2014-12-24 ヤフー株式会社 操作入力装置、操作入力方法、及び、プログラム
JP2013218535A (ja) * 2012-04-09 2013-10-24 Crescent Inc 三次元モデリングされたcg画像内にcg画像化された手指を表示する方法及び装置、並びに三次元モデリングされたcg画像を表示する広視野角ヘッドマウントディスプレイ装置
US10168784B2 (en) * 2012-09-20 2019-01-01 Sony Corporation Information processing apparatus and method, and program

Also Published As

Publication number Publication date
US9766711B2 (en) 2017-09-19
US20150160736A1 (en) 2015-06-11
JP2015114818A (ja) 2015-06-22
US9256292B2 (en) 2016-02-09
US20160116987A1 (en) 2016-04-28

Similar Documents

Publication Publication Date Title
JP6090140B2 (ja) 情報処理装置、情報処理方法及びプログラム
US12353632B2 (en) Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
US12135840B2 (en) Bimanual gestures for controlling virtual and graphical elements
US12566532B2 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US11861070B2 (en) Hand gestures for animating and controlling virtual and graphical elements
CN105190483B (zh) 检测用至少两个控制对象执行的手势
US20210407203A1 (en) Augmented reality experiences using speech and text captions
KR20230074780A (ko) 검출된 손 제스처들에 응답한 터치리스 포토 캡처
KR102283747B1 (ko) 시선 추적을 갖는 타겟 위치결정
KR20230066626A (ko) 증강 현실에서 인터랙티브 게임 제어를 위한 손 제스처들의 추적
CN115735178A (zh) 具有对话气泡和翻译的增强现实眼戴器
CN104246682A (zh) 增强的虚拟触摸板和触摸屏
KR20230029923A (ko) 롤링 셔터 카메라들을 사용하는 시각적 관성 추적
US20250224809A1 (en) Single-handed gestures for reviewing virtual content
US12093461B2 (en) Measurement based on point selection
KR20150138659A (ko) 홀로그래피 터치 방법 및 프로젝터 터치 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R151 Written notification of patent or utility model registration

Ref document number: 6090140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees