JP2011523112A - 拡張した被写体深度から抽出した三次元情報を用いたジェスチャ・ベース制御 - Google Patents
拡張した被写体深度から抽出した三次元情報を用いたジェスチャ・ベース制御 Download PDFInfo
- Publication number
- JP2011523112A JP2011523112A JP2011503166A JP2011503166A JP2011523112A JP 2011523112 A JP2011523112 A JP 2011523112A JP 2011503166 A JP2011503166 A JP 2011503166A JP 2011503166 A JP2011503166 A JP 2011503166A JP 2011523112 A JP2011523112 A JP 2011523112A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- detecting
- controlling
- depth
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0075—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/50—Optics for phase object visualisation
- G02B27/52—Phase contrast optics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【選択図】図9
Description
本願は、2006年2月8日に出願した米国(US)特許出願第11/350,697号の一部継続出願である。
本出願は、2008年4月24日に出願したUS特許出願第12/109,263号の一部継続出願である。
本願は、2008年10月14日に出願したUS特許出願第61/105,253号の優先権を主張する。
発明の分野
本発明は、一般的にはコンピュータ・システムの分野に関し、更に特定すれば、拡張した被写体深度における三次元情報の抽出を用いた、ジェスチャ・ベース制御システム(gesture based control system)のためのシステムおよび方法に関する。
引用による包含
本明細書において述べる各特許、特許出願、および/または刊行物は、本願において引用することにより、個々の特許、特許出願、および/または刊行物の各々が具体的にそして個々に、引用することにより本願に含まれることを示した場合と同程度にその全体が本願にも含まれるものとする。
システム
本発明の一実施形態のブロック図を図1に示す。ユーザは、彼の手101および102を、カメラ104A〜104Dのアレイの視野に置く。これらのカメラは、指ならびに手101および102の位置、方位、および移動を検出し、出力信号をプリプロセッサ105に発生する。プリプロセッサ105は、カメラ出力をジェスチャ信号に変換し、このジェスチャ信号をシステムのコンピュータ演算装置107に供給する。コンピュータ107は、入力情報を用いて、1つ以上の画面上カーソルを制御するコマンドを発生し、ビデオ出力をディスプレイ103に供給する。
マーカ・タグ
本発明は、ユーザの1つ以上の指においてマーカ・タグの使用を想定し、本システムがユーザの手を突き止め、ユーザが左または右のどちらの手を見ているのか特定し、どの指が見えるか特定することができるようにする。これによって、本システムは、ユーザの手の位置、方位、および移動を検出することが可能になる。この情報によって、本システムは多数のジェスチャを認識することが可能となり、これらのジェスチャは、ユーザによってコマンドとして用いることが可能になる。
ジェスチャ・ボキャブラリ
本発明は、手のポーズ、方位、手の組み合わせ、および方位の配合(orientation blends)で構成されるジェスチャ・ボキャブラリ(gesture vocabulary)を想定する。本発明のジェスチャ・ボキャブラリにおいてポーズおよびジェスチャを立案および伝達するために、表記言語(notation language)も実施する。ジェスチャ・ボキャブラリとは、力学的連結の瞬時的な「ポーズ状態」を簡潔なテキスト形態で表すシステムである。対象となる連結は、生物(例えば、人の手、または人の身体全体、あるいはバッタの足、あるいはキツネザルの関節脊柱)であってもよく、あるいは代わりに非生物であってもよい(例えば、ロボットのアーム)。いずれの場合でも、この連結は、単純(脊柱)でもまたは分岐(手)でもよい。本発明のジェスチャ・ボキャブラリ・システムは、いずれの特定的な連結についても、一定長のストリングを確立する。こうして、列(string)の「キャラクタ位置」を占める特定のASCIIキャラクタの集合体が、連結の瞬時的状態、即ち、「ポーズ」の一意の記述となる。
手のポーズ
図3は、本発明を用いたジェスチャ・ボキャブラリの一実施形態における手のポーズを示す。本発明は、1本の手における5本の指の各々を用いることを仮定する。これらの指には、p−小指、r−薬指、m−中指、i−人差し指、およびt−親指とコーディングする。指および親指のポーズ数を、図3に定義し更に例示する。ジェスチャ・ボキャブラリ・ストリングは、連結(この場合指)の表現可能な自由度毎に1つのキャラクタ位置を確定する。更に、このような各自由度は、離散化(または「量子化」)されていることが分かるので、その最大運動範囲は、当該ストリング位置における有限数の標準的ASCIIキャラクタの内の1つの割り当てによって表現することができる。これらの自由度は、本体特定の原点および座標系(手の裏、バッタの身体の中心、ロボット・アームの底辺等)に関して表現される。したがって、連結の位置および方位を「全体的に」更に大域的な座標系において表現するために、少数の追加のジェスチャ・ボキャブラリ・キャラクタ位置が用いられる。
方位(Orientation)
指および親指のポーズに加えて、手の方位が情報を表すことができる。地球空間(global-space)方位を記述するキャラクタも、透過的に選択するっことができる。キャラクタ「<」、「>」、「^」、および「v」は、方位キャラクタ位置において遭遇した場合、左、右、上、および下の考えを示すために用いることができる。図4は、手方位記述子、ならびにポーズおよび方位を組み合わせるコーディングの例を示す。本発明の一実施形態では、2つのキャラクタ位置が、最初に手の平の方向を指定し、次いで指の方向を指定する(指が真っ直ぐになっている場合、指の実際の屈曲には関係なく)。これら2つの位置に可能なキャラクタは、方位の「本体中心」観念(body-centric notion)を表現し、「−」、「+」、「x」、「*」、「^」、および「v」は、中間、側方、前方(順方向、本体から離れる側)、後方(逆方向、本体から離れる側)、頭上(上方)、および後端(下方)を記述する。
[|||||:vx]は、手を平らにして(親指が他の指と平行)、手のひらが下を向き、指が前方に突き出している。
[|||||:-x]は、手を平らにして、手のひらが身体の中心に向いており(左手の場合は右、右手の場合は左)、指が前方に突き出している。
[^^^|-:-x]は、銃を前方に構える真似である。
二手組み合わせ
本発明は、1つの手のコマンドおよびポーズだけでなく、2つの手によるコマンドおよびポーズも想定している。図5は、本発明の一実施形態における二手組み合わせおよび関連付けた表記の例を示す。第1の例の表記を検討すると、「完全停止」とは2つの拳を閉じていることを示す。「スナップショット」の例では、各手の親指および人差し指が広げられ、親指が互いに向き合って、ゴール・ポストの形状の枠を定めている。「舵およびスロットル開始位置」は、指および親指が上を向いており、手のひらが画面に面している。
方位配合(Orientation Blends)
図6は、本発明の一実施形態における方位配合の一例を示す。図示の例では、配合は、指ポーズ・ストリングの後ろにある括弧の中に囲まれた方位表記の対によって表されている。例えば、第1コマンドは、全て真っ直ぐに伸ばした指の位置を示す。方位コマンドの第1対により、手のひらをディスプレイに向かって平らにして、第2対によって、手を画面に向けて45度縦に回転させる。この例では、配合の対を示したが、本発明ではいずれの数の配合でも考えられる。
コマンドの例
図8は、本発明と共に用いることができる、多数の可能なコマンドを示す。本明細書における論述の一部は、ディスプレイ上におけるカーソルの制御についてであったが、本発明はその行動に限定されるのではない。実際に、本発明は、画面上における全てのデータおよびデータの一部、更にはディスプレイの状態を操作する際に、様々に応用することができる。例えば、ビデオ・メディアの再生中に、これらのコマンドをビデオ制御に代わって用いることができる。これらのコマンドは、一時停止、早送り、巻き戻しなどを行うために用いることができる。加えて、画像のズーム・インおよびズーム・アウトを行うため、画像の方位を変化させるため、いずれかの方向にパンニングするため等に実施することができる。また、本発明は、開く、閉じる、保存する等のような、メニュー・コマンドの代わりに用いることもできる。言い換えると、想像することができるいずれのコマンドまたは活動でも、手のジェスチャによって実施することができる。
動作
図7は、一実施形態における本発明の動作を示すフロー図である。ステップ701において、検出システムはマーカおよびタグを検出する。判断ブロック702において、タグおよびマーカが検出されたか否か判断を行う。検出されていない場合、システムはステップ701に戻る。ステップ702においてタグおよびマーカが検出された場合、システムはステップ703に進む。ステップ703において、システムは、検出されたタグおよびマーカから、手、指、およびポーズを特定する。ステップ704において、システムは、ポーズの方位を特定する。ステップ705において、システムは、検出された1つまたは双方の手の三次元空間位置を特定する。(ステップ703、704、および705の内任意のものまたは全てを1つのステップとして組み合わせてもよいことに注意されたい)。
解析(Parsing)および変換(Translating)
本システムは、基礎となるシステムによって再現された低レベルのジェスチャの流れを「解析」および「変換」し、これら解析し変換したジェスチャを、コマンドまたはイベント・データの流れに変換することができる。このデータは、広範囲のコンピュータ・アプリケーションおよびシステムを制御するために用いることができる。これらの技法およびアルゴリズムは、これらの技法を実現するエンジン、およびエンジンの能力を利用するコンピュータ・アプリケーションを構築するプラットフォームの双方を提供するコンピュータ・コードから成るシステムにおいて具体化することができる。
1)様々な異なる集計レベルにおいて、ジェスチャを指定する(コンピュータ・プログラムにおいて用いるためのエンコード)緻密かつ効率的な方法。
b.2つの手の組み合わせ。いずれかの手がポーズ、位置、または双方を考慮に入れる。
e.操作者が空間内の形状を追跡する「書記素」ジェスチャ(grapheme gesture)。
3)登録されているジェスチャを特定することができ、これらのジェスチャをカプセル化するイベントを関連するアプリケーション・コンテキストに配信することができるように、ジェスチャの流れを解析するアルゴリズム。
1本の手の「ポーズ」は、
i)手の指と甲との間の相対的方位、
ii)少数の離散状態への量子化、
のストリングとして表される。
i)複雑なコンテキストおよび条件付き制御状態を構築すること、
ii)動的にヒステリシスを制御環境に追加すること、および
iii)ユーザが実行システム自体のインターフェース・ボキャブラリを変更または拡張することができるアプリケーションを作成すること、
が可能となる。
加えて、指定されたジェスチャを認識するために内部で使用されている原始的比較演算子は、アプリケーション・プログラマが用いるためにも露出されるので、アプリケーション・コンテキスト内部からでも、より多くの比較(例えば、複雑なジェスチャまたは複合ジェスチャにおける柔軟な状態の検査)を行うことができる。
i)「エントリ」状態通知部および「連続」状態通知部、ならびに
ii)ジェスチャ優先度指定部
を含む。
仮想/ディスプレイおよび物理空間の一致
本システムは、1つ以上のディスプレイ・デバイス(「画面」)上に描かれた仮想空間を、当該システムの一人または複数の操作者によって占められる物理空間と一致するものとして扱う環境を提供することができる。このような環境の一実施形態についてここで説明する。この現実施形態は、固定位置に3つのプロジェクタ駆動画面を含み、1つのデスクトップ・コンピュータによって駆動され、本明細書に記載したジェスチャ・ボキャブラリおよびインターフェース・システムを用いて制御される。しかしながら、記載する技法は、いかなる数の画面でもサポートすること、これらの画面は移動可能であってもよいこと(固定ではなく)、画面は多くの独立したコンピュータによって同時に駆動してもよいこと、そしてシステム全体はいずれの入力デバイスまたは技法によっても制御できることを注記しておく。
3)操作者の位置に応じて変化するグラフィクス・レンダリング。例えば、深度の知覚を高めるためにパララックス・シフトをシミュレーションする。
イベント・データ(現実施形態では、システムおよびマウス入力からのジェスチャ・データおよびポインティング・データの双方)を制御システムから取り込み、入力イベントからの空間データを仮想空間における座標にマッピングする入力イベント処理スタック。変換されたイベントは、次に、実行アプリケーションに配信される。
拡張被写体深度において抽出した三次元情報を用いるジェスチャ・ベース制御
図9は、一実施形態の下において、拡張被写体深度において三次元情報を抽出する撮像システムを含むジェスチャ・ベース制御システム900のブロック図である。ユーザは、彼の手101および102をカメラ904A〜904Dのアレイの視野に置く。アレイ904A〜904Dの内少なくとも2台のカメラが、波面コーディング・カメラとなり、その各々は、以下で詳細に説明するように、波面コーディングマスク(ここでは、「光学非球面エレメント」または「光学エレメント」とも呼ぶ)を含む波面コーディング撮像システムのエレメントを備えている。ユーザの手および/または指は、先に述べたマーカ・タグを含んでいてもいなくてもよい。
一実施形態の撮像は、本体の波面コーディング画像を発生することを含む。
一実施形態の波面コーディング・カメラは、撮像の被写体深度を増大させる位相マスクを含む。
一実施形態の被写体深度内における本体の焦点解明範囲データは、波面コーディング・カメラの出力から得られる。
一実施形態の被写体深度内における本体の焦点解明位置データは、波面コーディング・カメラの出力から得られる。
一実施形態のシステムは、脱焦に対して不変である変調伝達関数および点拡散関数を備えている。
一実施形態の中間画像はぼやけている。
一実施形態のジェスチャ・データは、ジェスチャを表す三空間位置データである。
一実施形態の検出は、ジェスチャを特定することを含み、この特定は、本体の一部のポーズおよび方位を特定することを含む。
一実施形態の検出は、少なくとも1つのタグの位置を動的に検出することを含む。
一実施形態の1組のタグの各タグはパターンを含み、1組のタグの各タグの各パターンは、複数のタグの内いずれの残りのタグのいずれのパターンとも異なる。
一実施形態の検出は、本体の一部に結合されている1組のマーカの位置を検出することを含む。
一実施形態の検出は、本体の複数の付加物の位置を、この付加物の各々に結合されている1組のマーカを用いて、検出することを含む。
一実施形態のジェスチャ表記は、ジェスチャ・ボキャブラリを表し、ジェスチャ信号はジェスチャ・ボキャブラリの通信を含む。
一実施形態のジェスチャ・ボキャブラリは、本体の力学的連結の方位をテキスト形態で表す。
一実施形態のジェスチャ・ボキャブラリは、本体の力学的連結の状態を表す、キャラクタ・ストリングを含む。
一実施形態のシステムは、ストリングにおける各位置を第2付加物に割り当てることを含み、第2付加物が第1付加物に接続されている。
一実施形態の複数の位置は、座標原点に対して確定される。
一実施形態の検出は、本体の外挿補間位置が仮想空間と交差するときを検出することを含み、仮想空間は、コンピュータに結合されているディスプレイ・デバイス上に図示される空間を含む。
一実施形態のコンポーネントの制御は、仮想空間における外挿補間位置に応答して、仮想空間における仮想物体の位置を制御することを含む。
一実施形態のシステムは、仮想空間と物理空間との間で一致を得るために、検出および制御のスケーリング(scaling)を制御することを含み、仮想空間は、プロセッサに結合されているディスプレイ・デバイス上に描画された空間を含み、物理空間は本体が占める空間を含む。
一実施形態の制御は、プロセッサ上にホストされているアプリケーションの機能を制御すること、およびプロセッサ上に表示されているコンポーネントを制御することの内少なくとも1つを含む。
一実施形態の撮像システムは複数の光検出器を備えており、これらの光検出器の少なくとも2つは、撮像焦点深度を増大させる位相マスクを備えている波面コーディング・カメラである。
一実施形態の被写体深度内における本体の焦点解明範囲データは、撮像システムの出力から得られる。
一実施形態の被写体深度内における本体の焦点解明位置データは、撮像システムの出力から得られる。
一実施形態の方法は、脱焦に対して不変である変調伝達関数および点拡散関数を発生するステップ備えている。
一実施形態の中間画像はぼやけている。
一実施形態のジェスチャ・データは、ジェスチャを表す三空間位置データである。
一実施形態の検出するステップは、本体の方位を検出することを含む。
一実施形態の検出するステップは、本体の運動を検出することを含む。
一実施形態の検出するステップは、本体の第1組の付加物および第2組の付加物の内少なくとも1つを検出することを含む。
検出するステップは、本体の一部に結合されている1組のタグの位置を検出することを含む。
一実施形態の検出するステップは、本体上にあるマーカを動的に検出し位置を突き止めることを含む。
一実施形態の1組のマーカは、本体上に複数のパターンを形成する。
一実施形態の変換するステップは、ジェスチャの情報をジェスチャ表記に変換することを含む。
一実施形態のジェスチャ・ボキャブラリは、本体の力学的連結の瞬時的ポーズ状態をテキスト形態で表す。
一実施形態のジェスチャ・ボキャブラリは、本体の力学的連結の方位の組み合わせを、テキスト形態で表す。
一実施形態の力学的連結は、本体の少なくとも1つの第1付加物である。
一実施形態の方法は、複数のキャラクタのキャラクタを、第2付加物の複数の位置の各々に割り当てるステップを備えている。
一実施形態の方法は、空間における絶対位置および方位、本体の全体的位置および方位とは無関係の本体に対する固定位置および方位から成る1群から選択した位置を用いて、ならびに本体の動作に応答して対話的に座標原点を確定するステップを備えている。
一実施形態の検出するステップは、本体の外挿補間位置が仮想空間と交差するときを検出することを含み、仮想空間は、コンピュータに結合されているディスプレイ・デバイス上に図示される空間を含む。
一実施形態のコンポーネントを制御するステップは、仮想空間における外挿補間位置に応答して、仮想空間における仮想物体の位置を制御することを含む。
一実施形態の方法は、仮想空間と物理空間との間で一致を得るために、検出および制御のスケーリングを制御するステップを備えており、仮想空間は、プロセッサに結合されているディスプレイ・デバイス上に描画された空間を含み、物理空間は本体が占める空間を含む。
一実施形態の制御するステップは、プロセッサ上にホストされているアプリケーションの機能を制御することを含む。
本明細書において記載したシステムおよび方法は、処理システムを含む、および/または処理システムの下で実行する、および/または処理システムと連動して実行する。処理システムは、当技術分野では周知のように、互いに動作するプロセッサ主体デバイスまたは計算デバイスのあらゆる集合体、あるいは処理システムまたはデバイスのコンポーネントを含む。例えば、処理システムは、携帯用コンピュータ、通信ネットワークにおいて動作する携帯用通信デバイス、および/またはネットワーク・サーバの1つ以上を含むことができる。携帯用コンピュータは、パーソナル・コンピュータ、セルラ電話機、パーソナル・ディジタル・アシスタント、携帯用計算デバイス、および携帯用通信デバイスの中から選択した多数のデバイスおよび/またはデバイスの組み合わせのいずれとすることもできるが、そのように限定されるのではない。処理システムは、それよりも大きなコンピュータ・システムの中にあるコンポーネントを含むことができる。
Claims (90)
- システムであって、
複数の光検出器であって、該複数の光検出器の内少なくとも2つが波面コーディング・カメラを構成し、本体を撮像する、複数の光検出器と、
前記複数の光検出器に結合されているプロセッサであって、該プロセッサは身体のジェスチャを自動的に検出し、前記ジェスチャは前記本体の瞬時的状態を含み、前記検出は、1時点における前記ジェスチャのジェスチャ・データを集計することを含み、前記ジェスチャ・データは、前記撮像システムの被写体深度内における前記本体の焦点解明データを含み、前記プロセッサは、前記ジェスチャをジェスチャ信号に変換し、該ジェスチャ信号を用いて、前記プロセッサに結合されているコンポーネントを制御する、プロセッサと、
を備えている、システム。 - 請求項1記載のシステムにおいて、前記波面コーディング・カメラは、波面コーディング光学エレメントを含む、システム。
- 請求項1記載のシステムにおいて、前記撮像は、前記本体の波面コーディング画像を発生することを含む、システム。
- 請求項1記載のシステムにおいて、前記波面コーディング・カメラは、前記撮像の被写体深度を増大させる位相マスクを含む、システム。
- 請求項1記載のシステムにおいて、前記ジェスチャ・データは、前記被写体深度内における前記本体の焦点解明範囲データを含む、システム。
- 請求項5記載のシステムにおいて、前記被写体深度内における前記本体の焦点解明範囲データは、前記波面コーディング・カメラの出力から得られる、システム。
- 請求項1記載のシステムにおいて、前記ジェスチャ・データは、前記被写体深度内における前記本体の焦点解明位置データを含む、システム。
- 請求項7記載のシステムにおいて、前記被写体深度内における前記本体の焦点解明位置データは、前記波面コーディング・カメラの出力から得られる、システム。
- 請求項1記載のシステムであって、前記本体と前記撮像システムとの間の距離に対して不変である、変調伝達関数および点拡散関数を備えている、システム。
- 請求項1記載のシステムであって、脱焦に対して不変である変調伝達関数および点拡散関数を備えている、システム。
- 請求項1記載のシステムにおいて、前記プロセッサは、前記波面コーディング・カメラによって収集された画像をコーディングすることによって、中間画像を発生する、システム。
- 請求項11記載のシステムにおいて、前記中間画像はぼやけている、システム。
- 請求項11記載のシステムにおいて、前記中間画像は、脱焦収差を含む、前記本体または前記複数の光検出器の変化に対して不感応である、システム。
- 請求項1記載のシステムにおいて、前記ジェスチャ・データは、前記ジェスチャを表す三空間位置データである、システム。
- 請求項1記載のシステムにおいて、前記検出は、前記本体の位置を検出すること、前記本体の方位を検出すること、および前記本体の運動を検出することの内少なくとも1つである、システム。
- 請求項1記載のシステムにおいて、前記検出は、前記ジェスチャを特定することを含み、該特定は、前記本体の一部のポーズおよび方位を特定することを含む、システム。
- 請求項1記載のシステムにおいて、前記検出は、前記本体の第1組の付加物および第2組の付加物の内少なくとも1つを検出することを含む、システム。
- 請求項1記載のシステムにおいて、前記検出は、少なくとも1つのタグの位置を動的に検出することを含む、システム。
- 請求項18記載のシステムにおいて、前記検出は、前記本体の一部に結合されている1組のタグの位置を検出することを含む、システム。
- 請求項19記載のシステムにおいて、前記1組のタグの各タグはパターンを含み、前記1組のタグの各タグの各パターンは、前記複数のタグの内いずれの残りのタグのいずれのパターンとも異なる、システム。
- 請求項1記載のシステムにおいて、前記検出は、前記本体上にあるマーカを動的に検出し位置を突き止めることを含む、システム。
- 請求項21記載のシステムにおいて、前記検出は、前記本体の一部に結合されている1組のマーカの位置を検出することを含む、システム。
- 請求項21記載のシステムにおいて、前記1組のマーカは、前記本体上に複数のパターンを形成する、システム。
- 請求項21記載のシステムにおいて、前記検出は、前記本体の複数の付加物の位置を、該付加物の各々に結合されている1組のマーカを用いて、検出することを含む、システム。
- 請求項1記載のシステムにおいて、前記変換は、前記ジェスチャの情報をジェスチャ表記に変換することを含む、システム。
- 請求項25記載のシステムにおいて、前記ジェスチャ表記は、ジェスチャ・ボキャブラリを表し、前記ジェスチャ信号は前記ジェスチャ・ボキャブラリの通信を含む、システム。
- 請求項26記載のシステムにおいて、前記ジェスチャ・ボキャブラリは、前記本体の力学的連結の瞬時的ポーズ状態をテキスト形態で表す、システム。
- 請求項26記載のシステムにおいて、前記ジェスチャ・ボキャブラリは、前記本体の力学的連結の方位をテキスト形態で表す、システム。
- 請求項26記載のシステムにおいて、前記ジェスチャ・ボキャブラリは、前記本体の力学的連結の方位の組み合わせを、テキスト形態で表す、システム。
- 請求項26記載のシステムにおいて、前記ジェスチャ・ボキャブラリは、前記本体の力学的連結の状態を表す、キャラクタのストリングを含む、システム。
- 請求項30記載のシステムにおいて、前記力学的連結は、前記本体の少なくとも1つの第1付加物である、システム。
- 請求項31記載のシステムであって、前記ストリングにおける各位置を第2付加物に割り当てることを含み、該第2付加物が前記第1付加物に接続されている、システム。
- 請求項32記載のシステムであって、複数のキャラクタのキャラクタを、前記第2付加物の複数の位置の各々に割り当てることを含む、システム。
- 請求項33記載のシステムにおいて、前記複数の位置は、座標原点に対して確定される、システム。
- 請求項34記載のシステムであって、空間における絶対位置および方位、前記本体の全体的位置および方位とは無関係の前記本体に対する固定位置および方位から成る1群から選択した位置を用いて、ならびに前記本体の動作に応答して対話的に前記座標原点を確定することを含む、システム。
- 請求項33記載のシステムであって、前記複数のキャラクタのキャラクタを、前記第1付加物の複数の方位の各々に割り当てることを含む、システム。
- 請求項31記載のシステムにおいて、前記検出は、前記本体の外挿補間位置が仮想空間と交差するときを検出することを含み、前記仮想空間は、前記コンピュータに結合されているディスプレイ・デバイス上に図示される空間を含む、システム。
- 請求項37記載のシステムにおいて、前記コンポーネントの制御は、前記外挿補間位置が前記仮想空間における仮想物体と交差するときに、前記仮想物体を制御することを含む、システム。
- 請求項38記載のシステムにおいて、前記コンポーネントの制御は、前記仮想空間における前記外挿補間位置に応答して、前記仮想空間における前記仮想物体の位置を制御することを含む、システム。
- 請求項38記載のシステムにおいて、前記コンポーネントの制御は、前記ジェスチャに応答して前記仮想空間における前記仮想物体の姿勢を制御することを含む、システム。
- 請求項1記載のシステムであって、仮想空間と物理空間との間で一致を得るために、前記検出および制御のスケーリングを制御することを含み、前記仮想空間は、前記プロセッサに結合されているディスプレイ・デバイス上に描画された空間を含み、前記物理空間は前記本体が占める空間を含む、システム。
- 請求項41記載のシステムであって、前記物理空間における少なくとも1つの物理物体の移動に応答して、前記仮想空間において少なくとも1つの仮想物体を制御することを含む、システム。
- 請求項1記載のシステムにおいて、前記制御は、前記プロセッサ上にホストされているアプリケーションの機能を制御すること、および前記プロセッサ上に表示されているコンポーネントを制御することの内少なくとも1つを含む、システム。
- 方法であって、
撮像システムを用いて本体を撮像するステップであって、該撮像が、前記本体の波面コーディング画像を発生することを含む、ステップと、
本体のジェスチャを自動的に検出するステップであって、前記ジェスチャが、前記本体の瞬時的状態を含み、前記検出が1時点における前記ジェスチャのジェスチャ・データを集計することを含み、前記ジェスチャ・データが、前記撮像システムの被写体深度内における前記本体の焦点解明データを含む、ステップと、
前記ジェスチャをジェスチャ信号に変換するステップと、
前記ジェスチャ信号に応答して、コンピュータに結合されているコンポーネントを制御するステップと、
を備えている、方法。 - 請求項44記載の方法において、前記撮像システムは複数の光検出器を備えており、該複数の光検出器の内少なくとも2つが、波面コーディング光学素子を備えている波面コーディング・カメラを構成する、方法。
- 請求項44記載の方法において、前記撮像するステップは、前記本体の波面コーディング画像を発生することを含む、方法。
- 請求項44記載の方法において、前記撮像システムは複数の光検出器を備えており、該光検出器の少なくとも2つは、前記撮像焦点深度を増大させる位相マスクを備えている波面コーディング・カメラである、方法。
- 請求項44記載の方法において、前記ジェスチャ・データは、前記被写体深度内における前記本体の焦点解明範囲データを含む、方法。
- 請求項48記載の方法において、前記被写体深度内における前記本体の焦点解明範囲データは、前記撮像システムの出力から得られる、方法。
- 請求項44記載の方法において、前記ジェスチャ・データは、前記被写体深度内における前記本体の焦点解明位置データを含む、方法。
- 請求項50記載の方法において、前記被写体深度内における前記本体の焦点解明位置データは、前記撮像システムの出力から得られる、方法。
- 請求項44記載の方法であって、前記本体と前記撮像システムとの間の距離に対して不変である、変調伝達関数および点拡散関数を発生するステップを備えている、方法。
- 請求項44記載の方法であって、脱焦に対して不変である変調伝達関数および点拡散関数を発生するステップ備えている、方法。
- 請求項44記載の方法であって、前記波面コーディング・カメラによって収集された画像をコーディングすることによって、中間画像を発生するステップを備えている、方法。
- 請求項54記載の方法において、前記中間画像はぼやけている、方法。
- 請求項54記載の方法において、前記中間画像は、脱焦収差を含む、前記本体または前記撮像システムの前記複数の光検出器の変化に対して不感応である、方法。
- 請求項44記載の方法において、前記ジェスチャ・データは、前記ジェスチャを表す三空間位置データである、方法。
- 請求項44記載の方法において、前記検出するステップは、前記本体の位置を検出することを含む、方法。
- 請求項44記載の方法において、前記検出するステップは、前記本体の方位を検出することを含む、方法。
- 請求項44記載の方法において、前記検出するステップは、前記本体の運動を検出することを含む、方法。
- 請求項44記載の方法において、前記検出するステップは、前記ジェスチャを特定することを含み、該特定は、前記本体の一部のポーズおよび方位を特定することを含む、方法。
- 請求項44記載の方法において、前記検出するステップは、前記本体の第1組の付加物および第2組の付加物の内少なくとも1つを検出することを含む、方法。
- 請求項44記載の方法において、前記検出するステップは、少なくとも1つのタグの位置を動的に検出することを含む、方法。
- 請求項63記載の方法において、前記検出するステップは、前記本体の一部に結合されている1組のタグの位置を検出することを含む、方法。
- 請求項64記載の方法において、前記1組のタグの各タグはパターンを含み、前記1組のタグの各タグの各パターンは、前記複数のタグの内いずれの残りのタグのいずれのパターンとも異なる、方法。
- 請求項44記載の方法において、前記検出するステップは、前記本体上にあるマーカを動的に検出し位置を突き止めることを含む、方法。
- 請求項66記載の方法において、前記検出するステップは、前記本体の一部に結合されている1組のマーカの位置を検出することを含む、方法。
- 請求項66記載の方法において、前記1組のマーカは、前記本体上に複数のパターンを形成する、方法。
- 請求項66記載の方法において、前記検出するステップは、前記本体の複数の付加物の位置を、該付加物の各々に結合されている1組のマーカを用いて、検出することを含む、方法。
- 請求項44記載の方法において、前記変換するステップは、前記ジェスチャの情報をジェスチャ表記に変換することを含む、方法。
- 請求項70記載の方法において、前記ジェスチャ表記は、ジェスチャ・ボキャブラリを表し、前記ジェスチャ信号は前記ジェスチャ・ボキャブラリの通信を含む、方法。
- 請求項71記載の方法において、前記ジェスチャ・ボキャブラリは、前記本体の力学的連結の瞬時的ポーズ状態をテキスト形態で表す、方法。
- 請求項71記載の方法において、前記ジェスチャ・ボキャブラリは、前記本体の力学的連結の方位をテキスト形態で表す、方法。
- 請求項71記載の方法において、前記ジェスチャ・ボキャブラリは、前記本体の力学的連結の方位の組み合わせを、テキスト形態で表す、方法。
- 請求項71記載の方法において、前記ジェスチャ・ボキャブラリは、前記本体の力学的連結の状態を表す、キャラクタのストリングを含む、方法。
- 請求項75記載の方法において、前記力学的連結は、前記本体の少なくとも1つの第1付加物である、方法。
- 請求項76記載の方法であって、前記ストリングにおける各位置を第2付加物に割り当てるステップを備えており、該第2付加物が前記第1付加物に接続されている、方法。
- 請求項77記載の方法であって、複数のキャラクタのキャラクタを、前記第2付加物の複数の位置の各々に割り当てるステップを備えている、方法。
- 請求項78記載の方法において、前記複数の位置は、座標原点に対して確定される、方法。
- 請求項79記載の方法であって、空間における絶対位置および方位、前記本体の全体的位置および方位とは無関係の前記本体に対する固定位置および方位から成る1群から選択した位置を用いて、ならびに前記本体の動作に応答して対話的に前記座標原点を確定するステップを備えている、方法。
- 請求項78記載の方法であって、前記複数のキャラクタのキャラクタを、前記第1付加物の複数の方位の各々に割り当てるステップを備えている、方法。
- 請求項76記載の方法において、前記検出するステップは、前記本体の外挿補間位置が仮想空間と交差するときを検出することを含み、前記仮想空間は、前記コンピュータに結合されているディスプレイ・デバイス上に図示される空間を含む、方法。
- 請求項82記載の方法において、前記コンポーネントを制御するステップは、前記外挿補間位置が前記仮想空間における仮想物体と交差するときに、前記仮想物体を制御することを含む、方法。
- 請求項83記載の方法において、前記コンポーネントを制御するステップは、前記仮想空間における前記外挿補間位置に応答して、前記仮想空間における前記仮想物体の位置を制御することを含む、方法。
- 請求項83記載の方法において、前記コンポーネントを制御するステップは、前記ジェスチャに応答して前記仮想空間における前記仮想物体の姿勢を制御することを含む、方法。
- 請求項44記載の方法であって、仮想空間と物理空間との間で一致を得るために、前記検出および制御のスケーリングを制御するステップを備えており、前記仮想空間は、前記プロセッサに結合されているディスプレイ・デバイス上に描画された空間を含み、前記物理空間は前記本体が占める空間を含む、方法。
- 請求項86記載の方法であって、前記仮想空間と前記物理空間との間において、倍率、角度、深度、および寸法を、前記プロセッサに結合されている少なくとも1つのアプリケーションに応じて変換するステップを備えている、方法。
- 請求項86記載の方法であって、前記物理空間における少なくとも1つの物理物体の移動に応答して、前記仮想空間において少なくとも1つの仮想物体を制御するステップを備えている、方法。
- 請求項44記載の方法において、前記制御するステップは、前記プロセッサ上にホストされているアプリケーションの機能を制御することを含む、方法。
- 請求項44記載の方法において、前記制御するステップは、前記プロセッサ上に表示されているコンポーネントを制御することを含む、方法。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US4189208P | 2008-04-02 | 2008-04-02 | |
US61/041,892 | 2008-04-02 | ||
US12/109,263 | 2008-04-24 | ||
US12/109,263 US8407725B2 (en) | 2007-04-24 | 2008-04-24 | Proteins, pools, and slawx in processing environments |
US10524308P | 2008-10-14 | 2008-10-14 | |
US10525308P | 2008-10-14 | 2008-10-14 | |
US61/105,253 | 2008-10-14 | ||
US61/105,243 | 2008-10-14 | ||
PCT/US2009/039285 WO2009124181A2 (en) | 2008-04-02 | 2009-04-02 | Gesture based control using three-dimensional information extracted over an extended depth of field |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011523112A true JP2011523112A (ja) | 2011-08-04 |
JP2011523112A5 JP2011523112A5 (ja) | 2012-05-24 |
JP5697590B2 JP5697590B2 (ja) | 2015-04-08 |
Family
ID=41136111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011503166A Expired - Fee Related JP5697590B2 (ja) | 2008-04-02 | 2009-04-02 | 拡張した被写体深度から抽出した三次元情報を用いたジェスチャ・ベース制御 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP2266016A4 (ja) |
JP (1) | JP5697590B2 (ja) |
KR (1) | KR101550478B1 (ja) |
CN (1) | CN102047203B (ja) |
WO (1) | WO2009124181A2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011059404A2 (en) * | 2009-11-12 | 2011-05-19 | Nanyang Polytechnic | Method and system for interactive gesture-based control |
US9171200B2 (en) | 2011-03-04 | 2015-10-27 | Hewlett-Packard Development Company, L.P. | Gestural interaction identification |
CN103135754B (zh) * | 2011-12-02 | 2016-05-11 | 深圳泰山体育科技股份有限公司 | 采用交互设备实现交互的方法 |
JP5917125B2 (ja) | 2011-12-16 | 2016-05-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、撮像装置および表示装置 |
TWI451344B (zh) * | 2012-08-27 | 2014-09-01 | Pixart Imaging Inc | 手勢辨識系統及手勢辨識方法 |
CN104007819B (zh) * | 2014-05-06 | 2017-05-24 | 清华大学 | 手势识别方法、装置及Leap Motion体感控制系统 |
CA3064764A1 (en) | 2017-05-24 | 2018-11-29 | The Trustees Of Columbia University In The City Of New York | Broadband achromatic flat optical components by dispersion-engineered dielectric metasurfaces |
CN107515454B (zh) * | 2017-08-29 | 2019-12-20 | 宁夏巨能机器人股份有限公司 | 一种3d视觉定位的焦距自动调节装置及其调节方法 |
EP3676973A4 (en) | 2017-08-31 | 2021-05-05 | Metalenz, Inc. | INTEGRATION OF LENS WITH PERMEABLE METAL SURFACE |
KR20220035971A (ko) | 2019-07-26 | 2022-03-22 | 메탈렌츠 인코포레이티드 | 개구-메타 표면 및 하이브리드 굴절-메타 표면 이미징 시스템 |
CN110609039B (zh) * | 2019-09-23 | 2021-09-28 | 上海御微半导体技术有限公司 | 一种光学检测装置及其方法 |
US11927769B2 (en) | 2022-03-31 | 2024-03-12 | Metalenz, Inc. | Polarization sorting metasurface microlens array device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000275582A (ja) * | 1999-03-24 | 2000-10-06 | Olympus Optical Co Ltd | 被写界深度拡大システム |
JP2003527708A (ja) * | 2000-03-13 | 2003-09-16 | アーベー イン クレデブル | ジェスチャ認識システム |
JP2005502084A (ja) * | 2001-08-31 | 2005-01-20 | ザ・リージエンツ・オブ・ザ・ユニバーシテイ・オブ・コロラド | 中心領域で位相が不変の位相マスクを使用するmtf改良型の光学システム |
WO2006086508A2 (en) * | 2005-02-08 | 2006-08-17 | Oblong Industries, Inc. | System and method for genture based control system |
WO2008008084A2 (en) * | 2005-09-19 | 2008-01-17 | Cdm Optics, Inc. | Task-based imaging systems |
JP2008070319A (ja) * | 2006-09-15 | 2008-03-27 | Canon Inc | 物体計測装置および方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7164117B2 (en) * | 1992-05-05 | 2007-01-16 | Automotive Technologies International, Inc. | Vehicular restraint system control system and method using multiple optical imagers |
US7218448B1 (en) * | 1997-03-17 | 2007-05-15 | The Regents Of The University Of Colorado | Extended depth of field optical systems |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7151246B2 (en) * | 2001-07-06 | 2006-12-19 | Palantyr Research, Llc | Imaging system and methodology |
-
2009
- 2009-04-02 WO PCT/US2009/039285 patent/WO2009124181A2/en active Application Filing
- 2009-04-02 KR KR1020107024659A patent/KR101550478B1/ko active IP Right Grant
- 2009-04-02 JP JP2011503166A patent/JP5697590B2/ja not_active Expired - Fee Related
- 2009-04-02 EP EP09728557.1A patent/EP2266016A4/en not_active Withdrawn
- 2009-04-02 CN CN200980120542.XA patent/CN102047203B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000275582A (ja) * | 1999-03-24 | 2000-10-06 | Olympus Optical Co Ltd | 被写界深度拡大システム |
JP2003527708A (ja) * | 2000-03-13 | 2003-09-16 | アーベー イン クレデブル | ジェスチャ認識システム |
JP2005502084A (ja) * | 2001-08-31 | 2005-01-20 | ザ・リージエンツ・オブ・ザ・ユニバーシテイ・オブ・コロラド | 中心領域で位相が不変の位相マスクを使用するmtf改良型の光学システム |
WO2006086508A2 (en) * | 2005-02-08 | 2006-08-17 | Oblong Industries, Inc. | System and method for genture based control system |
WO2008008084A2 (en) * | 2005-09-19 | 2008-01-17 | Cdm Optics, Inc. | Task-based imaging systems |
JP2008070319A (ja) * | 2006-09-15 | 2008-03-27 | Canon Inc | 物体計測装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2009124181A3 (en) | 2009-12-30 |
KR101550478B1 (ko) | 2015-09-04 |
JP5697590B2 (ja) | 2015-04-08 |
EP2266016A2 (en) | 2010-12-29 |
WO2009124181A2 (en) | 2009-10-08 |
CN102047203A (zh) | 2011-05-04 |
EP2266016A4 (en) | 2014-10-29 |
CN102047203B (zh) | 2016-08-17 |
KR20100136993A (ko) | 2010-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9778751B2 (en) | Gesture based control using three-dimensional information extracted over an extended depth of field | |
JP5697590B2 (ja) | 拡張した被写体深度から抽出した三次元情報を用いたジェスチャ・ベース制御 | |
US10061392B2 (en) | Control system for navigating a principal dimension of a data space | |
US9471149B2 (en) | Control system for navigating a principal dimension of a data space | |
US8537112B2 (en) | Control system for navigating a principal dimension of a data space | |
JP5806615B2 (ja) | データ空間の主要次元をナビゲートするための制御システム | |
US9910497B2 (en) | Gestural control of autonomous and semi-autonomous systems | |
JP6116064B2 (ja) | 車両インターフェース用ジェスチャ基準制御システム | |
Neumann et al. | Natural feature tracking for augmented reality | |
WO2010030822A1 (en) | Gestural control of autonomous and semi-autonomous systems | |
CN103988150A (zh) | 用于初始化基于视觉的手跟踪器的快速指尖检测 | |
Son | Vision based natural assistive technologies with gesture recognition using Kinect | |
Shintani et al. | Evaluation of a pointing interface for a large screen based on regression model with image features | |
Mogol | 3D hand reconstruction with binocular view |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120402 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120402 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130416 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130712 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130722 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130816 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130823 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20130917 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131015 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140731 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20141002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5697590 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |