JP2014179072A - 三次元指先トラッキング - Google Patents

三次元指先トラッキング Download PDF

Info

Publication number
JP2014179072A
JP2014179072A JP2014037889A JP2014037889A JP2014179072A JP 2014179072 A JP2014179072 A JP 2014179072A JP 2014037889 A JP2014037889 A JP 2014037889A JP 2014037889 A JP2014037889 A JP 2014037889A JP 2014179072 A JP2014179072 A JP 2014179072A
Authority
JP
Japan
Prior art keywords
fingertip
hand
hand segment
component
observation region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014037889A
Other languages
English (en)
Other versions
JP6301159B2 (ja
Inventor
Kikuo Fujimura
藤村、希久雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2014179072A publication Critical patent/JP2014179072A/ja
Application granted granted Critical
Publication of JP6301159B2 publication Critical patent/JP6301159B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】入力ソースで受信される手又は手セグメントの存在、位置、指示方向、及び/又は動きを検出し、トラッキングするためのシステムおよび方法を提供する。
【解決手段】手、手セグメント及び指先の位置特定ステップ204およびトラッキング・ステップ206は、ボール・フィット手法を用いて行うことができる。手、手セグメント、及び指先の位置、及びトラッキング・データ210の分析結果214は、種々のシステムおよび装置の入力として用いることができる。
【選択図】 図2

Description

本出願は、概して、コンピュータ・ビジョンおよび関連技術に関し、より詳細には、指先トラッキングのための、手、手セグメント、および手セグメントの下位部分の特定に関する。
特定のテクノロジーに対するユーザ満足の大部分は、ユーザ・インターフェースに依る使いやすさに基づいている。ユーザインタフェースの設計によって、ユーザが、システムに入力を行い、システムからの出力を解釈するために費やさなければならない手間の大きさ、そして、この方法の学習に必要な労力の大きさが影響を受ける。
多くの機器は、物理的なノブ、スライダー、ボタン、又はタッチ・スクリーンやソフト・ボタンなどの仮想制御手段を用いて制御される。しかしながら、これらの機構は、しばしば、ユーザの視覚的注意を必要とし、運転中の操作は非常に困難であり、危険でさえある。
運転者は、運転方向の情報を必要とし、また周囲環境に関するその他の情報を望むだろうが、その情報にアクセスするための選択肢は限られている。ほとんどのオンボード・ナビゲーション・システムは車両が走行中は使用不能になり、米国の多くの州では、運転中の携帯電話の使用を禁止する不注意運転に関する法律を制定している。基本的な安全運転の知恵では、運転者の手はステアリング・ホイールにおき、目は道路に向けることを教えている。しかし、運転者には、依然として、タイムリーな情報およびリアル・タイムでの運転者支援機能に対するニーズがある。
ユーザと技術を結ぶインターフェースには、技術がユーザからの入力を受け入れられるように様々な手段が集積されている。インターフェース設計者によって追求されてきた一つの方向は、ジェスチャ認識および同様の技術である。モーションやジェスチャは、特定され分析されて、様々な機器に関する動作を起動することができる。特に、従来の機器制御手段(例えば、キーボード、マウス)が実用的ではない事例では、人間のモーションやジェスチャを用いた機器への入力伝達によって、機器を制御するためのスピーディで直感的な手段を提供することができる。
明らかな利点があるにもかかわらず、指先特定は、指先特定を使用するシステムの分解能によって制限される場合が多い。例えば、従来のモーション・センサでは、フレーム内(例えば、指先位置のトラッキングに関連する入力を収集することができる一つ以上のセンサの「視野」範囲内)の手の存在は認識可能であるが、指先の位置と向きの正確な検出は容易ではない。現在のシステムでは、正確に指先位置を特定しトラッキングするための性能と精度が欠けており、指先特定の利用は大きく制限されている。
既存のジェスチャートラッキング技術は、指先の精密な三次元の位置、指示方向および動きを正確に検出することができず、ジッタや出力の不正確さを引き起こすノイズに対するセンサ入力の感度に関連する問題を抱えている。従来の指先位置トラッキングの主要な欠点は、指示方向の正確な推定が困難なことであり、これは、特定およびトラッキングの正確さのばらつき、そして、指示方向推定の信頼度の低さに起因している。
以下では、本発明のいくつかの態様の基本的な理解のために、本発明の概略を簡単に示す。この概略は、本発明の全体の概要の拡張ではない。この概略は、本発明の鍵となる又は重要な要素を特定すること、又は本発明の範囲を概括するようなことは意図していない。その唯一の目的は、後で提供される、より詳細な説明への前置きとして簡略化した形で本発明のいくつかの概念を示すことである。
本明細書で開示され、特許請求されている発明には、一面において、入力ソースで受信される、手や指や指先の存在、位置、指示方向及び/又は動きを検出し、トラッキングし、そして分析するためのシステムおよび方法が含まれる。このような分析の応用としては、たとえば、ナビゲーション・システム、情報システム、エンターテイメント・システム、スマート・フォン又はその他の携帯機器等のシステム又は機器に対する入力としての使用がある。
特定の実施形態では、手、手セグメント、指や指の一部分(例えば、指先)を含む手セグメントの一部分の検出と特定は、三次元位置データを検出しトラッキングするために行うことができる。三次元指先トラッキング・データは、広範なシステムおよび機器への入力として使用することができる。
入力ソースで受信される手および手の部分(例えば、指、指先)の特定、分析、およびトラッキングは、例えば、ボール・フィット手法すなわちボール・フィット・アルゴリズムや、前記入力ソースで受信されると予想される、身体に関連する様々な計算技術を用いて行われる。特定情報、分析情報、及びトラッキング情報は、機器との相互交信その他の目的に使用することができる。
上記目的および関連する目的を達成するために、本発明のいくつかの説明用の態様が、以下の記載および別紙の図面と関連付けて本明細書に記載されている。しかしながら、これらの態様は、本発明の原理を使用することができる様々な方法のいくつかのみについて示しており、本発明の主題の開示は、すべてのそのような態様およびそれらの均等物を含むことを意図している。その他、本発明の利点および新規な特徴は、図面と併せて検討すると、以降にある本発明の詳細な説明から明らかになるであろう。
ジェスチャ認識を支援するシステムを示すブロック図の一例である。 一つ以上の移動体の動きを認識するためにユーザに提供するシステムを示すブロック図の一例である。 本願で開示されたシステムおよび方法を説明する実施形態を示すブロック図の一例である。 本願発明の主題の開示に基づく三次元指先トラッキング・システムの使用例を示す図である。 本願発明の主題の開示に基づく三次元指先トラッキング・システムおよび方法の態様を示す図である。 従来の指先特定方法の一例を示す図である。 本願発明の主題の開示に基づく三次元指先トラッキング・システムおよび方法の態様の一例を示す図である。 本願発明の主題の開示に基づく三次元指先トラッキング・システムおよび方法の態様の一例を示す図である。 本明細書に記載の態様と組み合わせて使用することができるコンピューティング・システムの一例を示すブロック図である。 本明細書に記載の態様と組み合わせて用いることができるネットワーク・システムの一例を示すブロック図である。 開示されたシステムおよび方法の実施形態に従って得られたテスト結果を示すグラフである。 開示されたシステムおよび方法の実施形態に従って得られたテスト結果を示すグラフである。 開示されたシステムおよび方法の実施形態に従って得られたテスト結果を示すグラフである。 開示されたシステムおよび方法の実施形態に従って得られたテスト結果を示すグラフである。
以降、例えば図面や本明細書に記載の他の態様を参照して、本発明の詳細を述べる。以下の説明および図面(本明細書に組み込まれている)においては、本発明の主題の開示内容を完全に理解してもらう目的で、多くの特別な事項が、説明のために記載されている。しかしながら、本発明は、これらの特別な詳細説明なしに実施可能であることは明らかであろう。他の例においては、周知の構造および機器が、本発明の説明を容易にするためにブロック図の形で示されている。
一つの実施形態では、三次元指先トラッキングを行うための、コンピュータで実行される方法は、一つ以上のプロセッサ、および前記一つ以上のプロセッサによって実行される一つ以上のプログラムを格納するメモリを用いるステップを含み、前記一つ以上のプログラムは、手に対応付けられたセンサ・データを受信する命令と、前記センサ・データ内の手セグメントを特定する命令と、略円形の観測領域を生成する命令と、前記特定された手セグメントの軸に沿って前記観測領域を進める命令と、前記観測領域内の前記手セグメントに対応するデータを計算する命令と、前記観測領域の位置に少なくとも部分的に基づいて三次元指先位置を決定する命令とを含む。
他の実施形態では、三次元指先トラッキング・システムは、フレーム内の少なくとも一つの手セグメントを記録する画像検出コンポーネントと、前記少なくとも一つの手セグメントの指先位置を検出する指先特定コンポーネントと、そして、前記少なくとも一つの手セグメントの分析に基づいて指先の動きをトラッキングする指先トラッキング・コンポーネントとを含む。
さらに別の実施形態では、指先トラッキング・システムは、少なくとも一つの手セグメントの少なくとも一つの画像と、前記画像内の指先位置を検出する指先特定コンポーネントと、指先位置と、音声コマンド、ユーザ位置又はデータベース情報のうちの少なくとも一つとを受信して処理する処理コンポーネントと、前記処理された指先位置及び、音声コマンド、ユーザ位置又はデータベース情報に少なくとも部分的に基づいて出力を提供する出力コンポーネントを含む。
本願で使用する場合、用語「コンポーネント」および「システム」は、コンピュータ関連エンティティ、あるいは、ハードウェア、ハードウェアとソフトウェアとの組み合わせ、ソフトウェア、又は実行中のソフトウェアのいずれかを指している。例えば、コンポーネントは、プロセッサ上で実行中のプロセス、プロセッサ、オブジェクト、実行可能ファイル、実行中のスレッド、プログラム、及び/又はコンピュータであり得るが、これらに限定されない。例えば、サーバ上で実行中のアプリケーションおよびサーバの両方/又はどちらかはコンポーネントであり得る。一つ以上のコンポーネントが実行中の一つのプロセス及び/又はスレッド内に存在することができる。一つのコンポーネントを、一つのコンピュータに局在させ、及び/又は二つ以上のコンピュータ間に分散させることができる。
コンピュータベースの態様に対しては、様々な実装が当業者によって想到されるであろう。いくつかの実施形態では、ディスプレイを含む又はディスプレイと接続された様々な処理及び/又は記憶用の機器が、本明細書の態様と共に使用することができる。例えば、本明細書のいくつかの態様では、少なくとも部分的にコンピュータ化された機能を用いて、手のうちの手セグメント及び、指先の位置及び/又は動きを特定することができる。一つの実施形態では、車両内の「ヘッド・アップ・ディスプレイ(Head−up display、HUD)」(例えば、運転中に通常の視野内で見ることのできるディスプレイ)には、指先の位置及び/又は動きから得られた動作を反映することができる。代替又は補完的な実施形態では、自動車内におかれた、従来の制御機器や表示機器(例えば、ダッシュ・ボード下のメーターやゲージ、センター・コンソールと結合されたディスプレイ、シフター、操舵装置、スロットル、ナビゲーション・システム、エンターテインメント・システム)に、指先の位置及び/又は動きによってもたらされる変化を反映することができる。
一つの実施形態では、指先の位置及び/又は動きの解析を、音声コマンドやGPS情報及び/又はデータベース情報の少なくとも一つと組み合わせて出力を生成することができる。一つの実施形態においては、前記システムおよび方法は、情報を、運転方向、世界オブジェクトの認識、及び運転者に有用な他の情報の配信の形で、提供することができる。
本明細書で使用するときには、用語「手セグメント」は、指先の位置特定及び/又はトラッキングを行うことができる画像、フレーム又は視覚内の手や手の部分とする。例えば、カメラ、又は他のセンサの視野内を移動している手は、特に断りのない限り、本明細書における開示の目的および特許請求の範囲に対応する手セグメントである。説明のために、手の指は、同様に、一つ以上の手セグメントとすることができる。
しかし、手セグメントという用語の使用は、人(又は他の動物)の身体全体の他の部分(例えば、目と鼻と口のような頭部の下位部分を含む頭部、胴体、腕(腕と上腕部(肘上の腕)と前腕部(肘下の腕)と手のような腕の一部を含む)、脚(大腿部(膝から上の脚)と膝から下の脚と足部などの脚の一部を含む)を除外すると解釈されるべきではない。本明細書の開示では、人体全体の位置及び/又は運動を検出しトラッキングするために人体全体の動きを分析する実施例又は実施形態をサポートしている。指や指先を特定及び/又は区別するために記載した技術と同じ技術を、手足および人体の他の部分を特定するために使用することができる。
本明細書で使用する際には、用語「世界オブジェクト」は、ほとんどの任意の実在物、又は実在物の一部であり、実在物の例としては、道路、橋、標識、建物、記念碑、車両、事業所、あるいは、その他のほとんど任意の実在物や関心のある地点が含まれるが、これに限定されない。
指先の位置は、ボール・フィット認識技術及び/又は他の技術を用いて特定され、トラッキングすることができる。ボール・フィットによる検知は、概略的には、センサにより検出された物体を認識し特徴的な側面を区別するための、コンピュータ・ビジョンやマシン・ビジョンにおける一連の技術とアルゴリズムを指している。本明細書で説明されている技術は、特に、指先特定とトラッキングの方法を指しているが、他の手段(例えば、局所的極値の特定)を代替的に又は付属的に用いることができる。身体を特定する、又は特定精度を向上するための他の技術としては、様々な処理アルゴリズムの使用を含むことができる。ボール・フィット技術の出力(例えば、指先の位置、指示方向、及び/又は動きに関連するデータ)は、他のシステムに対する入力として使用することができる。例えば、指先位置、指示方向及び/又は動きは、音声コマンド、GPS(Global Positioning System)情報及び/又はデータベース情報の少なくとも一つと組み合わせて出力を生成することができる。
各種の入力、画像、データ、及び/又は情報は、複数のバージョンで、又は以前には未定義のバージョンに関して記述されることがある。当業者であれば、本明細書における画像処理および入力を変形する他の態様全体を通して、変形前からの情報を保持しながらコピーを生成し変形することができることを理解するであろう。本明細書の実施形態は、入力の「前」のバージョンと「後」のバージョン(例えば、元の画像と特定のパラメータを適用した画像、パラメータを適用した画像)の比較およびクロス処理に依拠することができる。明示的に説明されないかぎり、以前のバージョン(又は、明示的に記載されていない、変更版、代替版及び/又は改定版を表す他の用語で表されるもの)は、一つの方法の完了まで又は一つのシステムの利用中は、回復可能であり、使用されていると理解されるべきである。
本明細書に記載の技術が機能する例において、三次元指先トラッキングを実現することができる。撮像手段、例えば、ステレオ・カメラを用いて、認識、位置特定及び/又はトラッキングされるべき指先の少なくとも一つの遠近図を含むビデオ又は一連の静止フレームを撮影することができる。
いくつかの実施形態では、指の画像撮影用に別の代替え手段を用いることができる。例えば、画像フレームの変化に加えて、光や影のような画像フレームの付随的な側面を分析することができる。他の実施形態では、空間での動きを測定するために、電界の変化を検出することができる。
代替的な又は補完的な実施形態では、温度変化又は熱の検知に関する技術を用いることができる。一つ以上の追加の実施形態で、反射エネルギー(例えば、音波や赤外線)を用いて、手セグメントの存在及び/又はある空間を通る動きを検出することができる。一つ以上の実施形態で、空間内での動きを特定するために、振動や圧力の検出を用いることができる。
センサ、又は撮像手段、例えば、ステレオ・カメラ又はデプス・カメラを用いて、認識、位置特定及び/又はトラッキングされるべき指先の、少なくとも一つの遠近図を含むフレームを取得することができる。オブジェクト(例えば、手、手セグメント、又は手セグメントの一部)が空間内で検出されると、指先の特定及び/又はトラッキングを始まることができる。
デプス画像や視差マップ、およびこれらの連続したものは、撮像手段を介して取得した画像フレームから組み立てることができる。手に対応する画像の一部を抽出し、一本の指に対応する手セグメント、又は骨格を認識することができる。骨格は、物体の認識と表現において重要な形状記述手段である。骨格には、単純な形で物体のトポロジーおよび形状に関する本質的な情報が取り込まれる。従来のアルゴリズムは、手セグメントの骨格を認識するために使用することができる。
指先位置特定に関する従来の技術は、単に、認識された手セグメント又は骨格の極値点、例えば、デプス画像での最上位点、最左点、又は最近接点等を選択し、指先として指定する。しかしながら、これらの単純な技術は、少なくとも部分的には、センサ入力がノイズを受けやすいという理由で精度を欠いており、このため、出力におけるジッタの原因となり、結果としてできるデプス画像又はマップでの指の輪郭が滑らかでなくなる。非平滑な画像から極値点を選択し指先として指定すると、結果的に、不正確さの程度が変化し予測不可能になる。本願発明の主題の開示によって、正確で安定しておりかつノイズの影響を受けにくい、正確な指先位置特定とトラッキングのためのシステムおよび方法が提供される。
指先位置を正確に特定しトラッキングするために、ボール・フィット手法を用いることができる。ボール・フィット手法は、デプス画像内にある、手セグメント、又は骨格を認識すること、そして、手セグメントの長さに沿って手セグメントの幅を計算することを含む。半径が手セグメントの平均幅の約半分の、ボール、すなわち略円形の観測領域が生成される。前記ボールは、手セグメントの軸に沿って、手セグメントの先端に向かって連続して動かし、「転がす」、又は進めることができる。ボールが、手セグメントに沿って、転がり、又は移動すると、ボール内に入り、手に対応する画素の数を計数することができる。前記ボールは、ボールすなわち観測領域内の手の画素数がボール内の全画素数の約90%以下になるまで、手セグメントの端点の方へ進むことができる。前記ボールが停止したときには、ボールの中心点として指先位置を設定することができる。
他の実施形態では、前記ボールは、手セグメントの軸に沿って、手セグメントの先端から手セグメントのつけ根の方向に連続した動作で、転がる、又は進むことができる。ボールが、手セグメントに沿って、転がる、又は移動すると、ボール内に入る画素で、かつ手に対応する画素の数を計数することができる。例えば、前記ボールは、ボールすなわち観測領域内の手に対応する画素の数がボール内の全画素数の約90%以上になるまで、指先から指のつけ根の方向へ軸に沿って進むことができる。前記ボールが停止したときには、指先位置をボールの中心点として設定することができる。
一つの実施形態では、ボール・フィット技術で特定される指先の位置及び/又は動きを、音声コマンド、GPS情報及び/又は他の情報と組み合わせて、出力を生成することができる。例えば、運転者が指差しをして、「この建物は何か?」というような音声コマンドを指先トラッキング・システムに発行することができる。前記システムは、指先位置情報、音声コマンド、GPS位置、地図データ及び/又は他の情報を処理して、応答出力を生成することができる。前記出力は、たとえば、音声や視覚的な出力である。本実施例では、システムは、例えば、「公共駐車場、午後4時以降は無料」というような音声出力で応答することができる。他の実施形態では、システムは、経路案内、又は位置や目的地の確認を示す出力を生成することができる。前記システムは、標識情報、ショッピング情報、観光情報、広告、その他の、関心のあるほとんど全ての情報に関する出力を得るために使用することができる。
一つの実施形態によれば、システムは、運転者にリアル・タイムな地域固有の情報へのアクセスおよび運転支援を提供することができる。運転中に、運転者は、ステアリング・ホイールに手をおいたまま、単に関心のある対象の方向を指差すだけで情報にアクセスすることができる。
さらに別の実施形態では、例えば、後の視聴のために、位置データを記録し物体又は出来事の写真、音声及び/又は動画を撮ることによって、ボール・フィット技術によって特定された指先の位置及び/又は動きを三次元ブック・マーキングに利用することができる。例えば、運転者や乗客が物体又は出来事を指し示すと、システムは、前記物体又は出来事に関連した、GPS位置データ、音声、ビデオ、静止画、そして、興味のあるほとんどすべての他の情報を記録することができる。三次元ブック・マーキングは、運転者や乗客が他の方法で記録することが困難又は危険な情報を事後参照用に記録するために有用である。
上記の例は、上記開示で知得可能なすべての技術を包括的、余すところなく詳述するために提供するものではなく、本発明の技術的思想を示すものであるが、本明細の他の態様の範囲を制限するように解釈されるべきではない。当業者であれば、様々な代替的、補完的な技術を、本発明の範囲から逸脱することなく、上記に記載の一つ以上の態様に対して類似の効果又は補完的な効果を得るために用いることができると理解するであろう。以降、応用例を、図面との関連で説明する。
図1は、三次元指先トラッキング支援システム100の一例を示すブロック図である。システム100は、画像検出コンポーネント102と、指先特定コンポーネント104と、指先トラッキング・コンポーネント106を含む。
画像検出コンポーネント102は、少なくとも一つの画像又は他のセンサ・データを受信し人間の手の少なくとも一部を撮像するセンサ(例えば、ステレオ・カメラ、デプス・カメラ、電荷結合素子、相補型金属酸化物半導体アクティブ画素センサ、赤外線及び/又は熱センサ、イメージ増倍管関連のセンサ、その他のイメージセンサ)を含むことができる。一つ以上の実施形態では、画像検出コンポーネント102は、他のコンポーネント(例えば、104、106)の中に組み込んで又は組み合わせて一体化することができる。画像、例えば、手又は手の一部の記録やフレームは、指先位置及び/又は指示方向の三次元特定を支援する処理のために、指先特定コンポーネント104に供えることができる。
指先特定コンポーネント104には、一つ以上の手セグメントを特定するための様々な認識技術を用いることができる。例えば、手セグメント、及び/又は指が画像検出コンポーネント102によって走査されるフレーム又は空間内に存在することがある。指先特定コンポーネント104は、手の一部、例えば、手セグメント、指、又は指先を特定するために、ボール・フィット手法又はその他のアルゴリズムを用いることができる。いくつかの実施形態では、指先特定コンポーネント104は、撮像した指先の位置の、異なる、又は連続する複数のバージョンを、特定された指先の動きをトラッキング可能な指先トラッキング・コンポーネント106に提供することができる。
図2は、三次元指先トラッキングと、少なくとも部分的には指先位置に基づいた出力を支援するシステム200の一例を示すブロック図である。システム100は、画像検出コンポーネント202と、指先特定コンポーネント204と、指先トラッキング・コンポーネント206と、処理コンポーネント208と、データ・コンポーネント210と、出力コンポーネント212とを含む。
画像検出コンポーネント202と、指先特定コンポーネント204、および、指先トラッキング・コンポーネント206は、図1と関連付けて上記で説明した、画像検出コンポーネント102と、指先特定コンポーネント104、および指先トラッキング・コンポーネント106と同一又は類似の方法で、三次元指先トラッキングを支援することができる。
処理コンポーネント208は、指先トラッキング・コンポーネント206から指先トラッキング情報を受信し処理することができる。処理コンポーネント208は、また、データ・コンポーネント210から、他の形態の他の種類の情報を受け取ることができる。処理コンポーネント208は、音声コマンドを受信し処理可能なハードウェア及び/又はソフトウェア、例えば、音声認識や会話認識を実行可能なハードウェア及び/又はソフトウェアを含むことができる。
データ・コンポーネント210は、前記処理コンポーネント208に、GPS情報及び/又はデータベース情報を提供することができる。一つの実施形態では、データ・コンポーネント210は、GPS位置に関連する情報、地図データ、及び/又は関連する他の情報又は地点を含むことができる。
出力コンポーネント212は、前記処理コンポーネント208から入力を受け取り、応答時に、音声、映像、又は他の出力214を提供することができる。例えば、出力コンポーネント212は、経路案内と、位置や目的地の確認、及び世界オブジェクトの認識を含む、一つ又は複数の出力214を提供することができる。他の実施形態では、出力コンポーネント212は、標識情報、ショッピング情報、観光情報、広告、および関心のある他の情報を示す出力214を提供することができる。一つの実施形態では、出力コンポーネント212は、車両内のヘッド・アップ・ディスプレイ(HUD)上で観察することが可能な、あるいはヘッド・アップ・ディスプレイ(HUD)を制御するための出力214を提供することができ、又は、他の制御機器や表示器(例えば、ダッシュ・ボード下のメーターやゲージ、センター・コンソールやシフター、操舵装置、スロットル、ナビゲーション・システム、エンターテイメント・システム、等に対応するディスプレイ等)を管理するために使用することができる。
図3は、三次元指先トラッキングのためのボール・フィット手法300の一例を示すブロック図の例である。302において方法300が起動されると、入力データ受信処理304に進む。入力データには、少なくとも一つの手が描かれている、一つ以上の画像、又はセンサ・データが含まれる。306において、少なくとも一つの手セグメント、例えば指が特定される。いくつかの実施形態では、手セグメントの骨格を認識することができる。
308では、略円形の観測領域、言いかえるとボールを算出することができる。観測領域の半径は、306で特定された手セグメントの平均幅に基づいて計算することができる。観測領域は、手セグメントの平均幅の約半分の半径を有するように算出される。
310で、観測領域が生成される。観測領域の中心点は、特定された手セグメントの軸に合わせられる。手セグメントの軸は、指の骨格でよい。
312で、観測領域、すなわちボールは、手セグメントの軸に沿って手セグメントの先端の方向に、一定距離を転がる、又は進むことができる。
314で、観測領域内のデータが計算される。一つの実施形態においては、デプス画像の観測領域内にある手セグメントに対応する画素が計数される。
316で、前記の計算したデータが解析される。一つの実施形態では、314で算出された観測領域内の手セグメントに対応する画素が、観測領域内の画素の総数と比較される。手セグメントに対応する観測領域内の画素の数が、ボール内の全画素の約90%より大きい場合、観測領域は、312で、手セグメントの先端の方向へ進む。手セグメントに対応付けられた観測領域内の画素の数が、ボール内の全画素の約90%以下の場合、ボールが停止し、指先の位置を特定することができる。
318で、指先の位置を特定することができる。一つの実施形態では、ボールが停止したとき、指先位置は、ボール、すなわち観測領域の中心点として特定することができる。その後、方法300は320の終了処理へ進むことができる。指先位置は、指先の動きをトラッキングするために、連続する画像又はフレーム内で特定することができる。一つの実施形態では、指先位置は、入力として働き、他の情報、データ、システム、および方法と組み合わせて出力を生成することができる。例えば、指先位置情報及び/又はトラッキング情報は、音声コマンド、GPS情報及び/又はデータベース情報の少なくとも一つと組み合わされて、出力を生成することができる。さらに別の実施形態においては、前記方法は、経路案内、世界オブジェクトの認識又は関連する他の情報の形で、音声及び/又は視覚情報を提供することができる。
本発明の主題の方法300の実施例は、人の手との関連で提示されているが、四肢の先端の特定に関連する他の技術は、本明細書の方法300や他の例の諸側面によって容易に実現できることが理解されよう。
ボール・フィット手法は、指先位置を正確に特定しトラッキングするために使用することができる。ボール・フィット手法には、デプス画像内で、手セグメント、又は骨格を特定すること、そして、手セグメントの長さ方向に沿って手セグメントの幅を計算することを含む。半径が手セグメントの平均幅の約半分である、ボール、すなわち略円形の観測領域を生成する。ボールを、手セグメントの先端に向かって、手セグメントの軸に沿って連続して、転がし、又は進ませることができる。ボールが、手セグメントに沿って、ある距離を転がる又は移動すると、ボール内に入り、かつ手に対応する画素の数を計数する。ボールは、ボールすなわち観測領域内の手の画素の数が、ボール内の総画素数の約90パーセント以下になるまで、手セグメントの終端に向かって進むことができる。ボールが停止したとき、指先位置がボールの中心として設定されることができる。
図4は、本発明の主題の開示に基づく三次元指先トラッキング・システムの典型的な使用例を示している。一つの実施例では、運転者(あるいは乗員)は、関心のある物体404に人差し指402を向ける。前記システムは、指先位置および指先の向きを特定して、前記関心のある物体に関連する情報を提供することができる。こうして、運転者は、ステアリング・ホイールに両手をおいたまま、現時点の周囲に関する情報にアクセスすることができる。一つの実施形態では、指先位置データは音声コマンド又は他の入力と組み合わせることができ、そして、前記システムは指先位置および他の入力に基づく出力を提供することができる。
本発明のシステムおよび方法は、リアル・タイムの情報及び/又は運転者支援機能を提供することができる。指先位置、および、GPS位置や他の関連データ等の任意の他の入力に応答して、前記システムは、例えば、経路案内情報の提供や、現在位置や道路標識情報の確認を行うことができる。前記システムは、運転者によって指し示された世界オブジェクトに関する情報を提供することができる。一つの実施形態では、システムは、例えば、開店時間、レストランのメニュー、価格、及び/又は感想等のショッピング情報を提供することができる。さらに他の実施形態では、システムは、例えば、関心のある地点に関する情報、歴史的建造物、イベント情報、広告、及び観光のヒント等の観光情報を提供することができる。指先トラッキング・システムおよび方法は、運転者の指先の位置や動きに応答して、静止画像、又は動画を撮影することができる。
図5は、ステアリング・ホイール504の後ろにいる運転者502が、人差し指506で指差しているデプス画像の一例を示す図である。ステレオ・カメラ508は、指先トラッキングに用いるために、運転者の手510の画像、フレーム、又は連続画像を撮影することができる。一つの実施形態では、カメラ508、又は他の撮像機器は、運転者の手が通常ステアリング・ホイールを握る位置から約40〜80cmの距離に配置することができる。画像又は連続画像は、少なくとも部分的にはボール・フィット手法に基づいて分析され、指先の正確な三次元位置が特定されトラッキングされる。本明細書では特定の指示方向や組み合わせが記載されているが、本願発明の技術的思想から逸脱することなく他の構成を用いることができることが理解されよう。
図6は、ステアリング・ホイール602の後ろにいる運転者が人差し指604で指差しているデプス画像の一例を示す図である。センサ入力でのスプリアス・ノイズによって、出力やデプス画像内に非平滑な輪郭606が発生する可能性がある。説明のため、手セグメントや指のデプス画像には、一般的には入力機器又は撮像機器のノイズに起因する、非平滑な輪郭608を含むことがあるとする。手セグメント又は指のデプス画像は、指の平滑な輪郭610を含むことがある。画像が非平滑な輪郭を含む場合、従来の指先認識技術は、不正確になりやすい。例えば、従来の技術では、手セグメントの最も左の端点612を指先として特定する可能性があるが、前記の端点はノイズを示している。
図7は、指先位置を精密にトラッキングするためのボール・フィット・システムおよび方法の一例を示す図である。ボール・フィット手法は、デプス画像704内にある手セグメント702又は骨格を認識することと、手セグメントの長さに沿って手セグメントの幅706を算出することを含む。半径が手セグメントの平均幅の約半分である、ボール708、つまり略円形の観測領域が設定される。前記ボールは、連続的に動きながら、手セグメントの軸に沿って手セグメントの先端に向かって、転がり、又は進むことができる。一つの実施形態では、ボールがそれに沿って転がる軸線は、特定された手セグメント又は骨格の軸に対応する。手の骨格は、従来のアルゴリズムを用いて認識することができる。手セグメントは一本の指であることがある。
ボールが手セグメントに沿って転がる、又は進むとき、ボール内に入り、かつ手に対応する画素の数を計数することができる。前記ボールは、ボール、すなわち観測領域内の手の画素数がボール内の全画素の約90%以下になるまで、手セグメントの終点710の方向へ進む。ボールが停止するとき、指先位置は、ボール712の中心点として設定することができる。
図8は、従来の指先位置検出技術と本発明のシステムおよび方法を用いた指先トラッキングの結果の例の比較を示す図である。本発明のシステムおよび方法は、精密でノイズに強いボール・フィット手法に基づいて、指先位置802を特定し、トラッキングすることができる。指先位置検出のための従来の技術では、単純に、デプス画像の中の最上位又は最左端にあるような、認識された手セグメント又は骨格806の端点804を選択し、指先として指定する。しかしながら、手セグメントのデプス画像は、入力でのノイズに起因する非平滑な輪郭808を含むことがありうる。ノイズは、たとえば、物体からの反射、光源からの影、背景照明、および、物体の色パターンによって引き起こされることがある。センサ入力(例えば、撮像機器、カメラ等)はノイズを受けやすく、前記ノイズは、出力におけるジッタ、結果として得られるデプス画像や視差マップ内の非平滑な指の輪郭808の原因になる。指先位置検出のための従来技術は、非平滑になっている可能性のある画像から端点を選択して、指先として指定することに基づいているので、不正確さの度合が予測不可能になりやすい。
図9は、本発明の主題の開示における様々な態様を実装可能な、適切なコンピューティング環境の全体図の概略を示しており、図10は、本発明の主題の開示における様々な態様を実現可能なクライアント−サーバ・コンピューティング環境の概略図を示す。
図9では、本発明の様々な態様を実装するための例示的な環境900は、コンピュータ902を含み、該コンピュータ902は、処理ユニット904、システム・メモリ906およびシステム・バス908を含んでいる。システム・バス908は、システム・メモリ906を含むシステム・コンポーネントを処理ユニット904に接続する。システム・コンポーネントはシステム・メモリ906には限定されない。処理ユニット904は、市販の様々なプロセッサのいずれかでよい。また、デュアル・マイクロプロセッサおよび他のマルチ・プロセッサアーキテクチャを、処理ユニット904として用いることができる。
システム・バス908は、メモリバスに、さらに、周辺機器用バス、および市販の様々な任意のバス・アーキテクチャを用いるローカル・バスを(メモリ・コントローラの有無にかかわらず)相互接続可能なバス構造のタイプのうち任意のものでよい。システム・メモリ906には読み出し専用メモリ(ROM)910およびランダム・アクセス・メモリ(RAM)912が含まれる。基本入出力システム(BIOS)は、ROM、EPROM、EEPROMなどの不揮発性メモリ910に格納される。前記BIOSには、例えば、スタートアップ中に、コンピュータ902内の構成要素間での情報転送を支援する基本ルーチンが含まれている。また、RAM912は、データ・キャッシング用のスタティックRAMのような高速RAMを含むことができる。
コンピュータ902は、さらに、内蔵ハード・ディスク・ドライブ(HDD)914(例えば、EIDE、SATAなど)を含む。代替的に又は追加で、外付けハード・ディスク・ドライブ915を、外部使用目的で適切なシャーシ(図示せず)に配置することができる。フロッピー(登録商標)・ディスク・ドライブ(FDD)916(例えば、取り外し可能なフロッピー・ディスク918の読み書き用)として記載されている磁気ディスク・ドライブや、光ディスク・ドライブ920(例えば、CD−ROMディスク922の読み取り、又は、DVDなどの他の大容量光メディアへの読み書き用)も配置することができる。ハード・ディスク・ドライブ914、915、磁気ディスク・ドライブ916、および光ディスク・ドライブ920は、それぞれ、ハード・ディスク・ドライブ・インターフェース924、磁気ディスク・ドライブ・インターフェース926および光ドライブ・インターフェース928によってシステム・バス908に接続することができる。外付けドライブ実装用のインターフェース924には、ユニバーサル・シリアル・バス(USB)、IEEE1394インターフェース技術、及び/又は他の外部ドライブ接続技術が含まれる。
ドライブおよび対応するコンピュータ可読媒体は、データ、データ構造、コンピュータ実行可能命令などを格納する不揮発性記憶を提供する。コンピュータ902用に、前記ドライブおよび媒体には、適切なデジタル・フォーマットの任意のデータの記憶領域が含まれる。上記のコンピュータ可読媒体の説明では、HDD、取り外し可能な磁気ディスケット、およびCD又はDVDなどの取り外し可能な光媒体について言及したが、例えば、ZIPドライブ、磁気カセット、フラッシュ・メモリ・カード、カートリッジ等の、コンピュータで読み取り可能な、他の任意のタイプのメディアも、例示の動作環境において使用することができること、さらに、そのような任意の媒体には、本明細で開示している方法を実行するためのコンピュータ実行可能命令を含むことが、当業者には理解されよう。
オペレーティング・システム930、一つ以上のアプリケーション・プログラム932、その他のプログラム・モジュール934、およびプログラム・データ936を含む、数多くのプログラム・モジュールを、前記ドライブおよびシステム・メモリ906に格納することができる。前記オペレーティング・システム、アプリケーション、モジュール、及び/又はデータのすべて又は一部は、また、RAM912にキャッシュすることができる。本発明は、様々な市販のオペレーティング・システム又はオペレーティング・システムの組み合わせで実装できることが理解されよう。
ユーザは、一つ又は複数の有線/無線入力機器、例えば、キーボード938やマウス940のようなポインティング・デバイスを介してコンピュータ902にコマンドおよび情報を入力することができる。他の入力機器(図示せず)には、マイクロフォン、IRリモート・コントローラ、ステレオ・カメラ、センサ、ジョイスティック、ゲーム・パッド、スタイラス・ペン、タッチ・スクリーンなどがある。上記のおよび他の入力機器は、多くの場合、システム・バス908に接続された入力機器インターフェース942を介して処理ユニット904に接続されるが、パラレル・ポート、IEEE1394シリアル・ポート、ゲーム・ポート、USBポート、IRインターフェースなどのような他のインターフェースによって接続することもできる。
モニタ944又は他のタイプの表示機器もまた、ビデオ・アダプタ946などのインターフェースを介してシステム・バス908に接続される。モニタ944に加えて、コンピュータには、通常、スピーカ、プリンタなどの他の出力周辺機器(図示せず)を備える。
コンピュータ902は、リモート・コンピュータ948として示されている一つ又は複数のリモート・コンピュータへの有線及び/又は無線通信を介した論理的接続を用いるネットワーク環境で動作することができる。リモート・コンピュータ948(複数可)は、ワークステーション、サーバ、ルータ、パーソナル・コンピュータ、ポータブル・コンピュータ、マイクロプロセッサ・ベース娯楽機器、ピア機器又は他の共通のネットワーク・ノードであってよい。そして、典型的には、コンピュータ902との関連で説明した構成要素の大部分又はすべてを含むが、簡潔にするために、メモリ/記憶装置950のみが示されている。前述の論理的接続には、ローカル・エリア・ネットワーク(LAN)952及び/又はより大きなネットワーク、例えば、ワイド・エリア・ネットワーク(WAN)954への有線/無線接続がある。このようなLANおよびWANのネットワーク環境は、オフィスや企業では一般的であり、例えば、イントラネットなどの企業規模のコンピュータ・ネットワーク構築を容易化する。これらは全て、例えば、インターネットのような地球規模の通信ネットワークに接続することができる。
LANネットワーク環境で使用される場合、コンピュータ902は、有線及び/又は無線通信ネットワーク・インターフェース又はアダプタ956を介してローカル・ネットワーク952に接続される。アダプタ956は、LAN952への有線又は無線通信を支援することができる。LAN952は、無線アダプタ956との通信のために配置される無線アクセス・ポイントを備えることができる。
WANネットワーク環境で使用する場合、コンピュータ902は、モデム958を備えるか、WAN954上の通信サーバに接続されるか、又はインターネットなど、WAN954上で通信を確立するための他の手段を備えることができる。モデム958は、内蔵用又は外付け用どちらでもよく、そして、有線機器又は無線機器のどちらであってもよいが、前述のように、シリアル・ポート・インターフェース942を介して、システム・バス908に接続される。但し、モデム958は、USB接続や、PCMCIA接続、又は他の接続プロトコルを介して接続することができることが理解されるべきである。ネットワーク環境では、コンピュータ902に関連して示したプログラム・モジュール、又はその一部は、遠隔のメモリ/記憶装置950に格納することができる。図示のネットワーク接続は例示であり、コンピュータ間の通信リンクを確立する他の手段を用いることができることを理解されたい。
コンピュータ902は、任意の無線機器や、無線通信で操作可能に接続されたもの、例えば、プリンタ、スキャナ、カメラ、デスクトップ及び/又はポータブル・コンピュータ、ポータブル・データ・アシスタント、通信衛星、無線で検出可能なタグと対応付けられた任意の装置や場所(例えば、キオスク、ニュース・スタンド、化粧室)、および電話等と通信動作が可能である。これには、少なくともWi−FiおよびBluetooth(登録商標)の無線技術が含まれる。このように、通信は、通常のネットワークと同様に事前に定義された構造、又は単に、少なくとも二つの機器間の一時的な(adhoc)通信とすることができる。
Wi−Fi、あるいはWireless Fidelityは、家庭のソファや、ホテルの部屋のベッド、又は職場の会議室から無線でインターネットへの接続を可能にする。Wi−Fiは、携帯電話で使用される無線技術と同様の技術であり、例えばコンピュータのような機器が屋内外、基地局の範囲内の任意の場所、とデータを送受信できるようにする。Wi−Fiネットワークは、IEEE802.11(a、b、g、n等)と呼ばれる無線技術を用い、安全で信頼性の高い、高速な無線接続を提供する。Wi−Fiネットワークを用いて、コンピュータを、相互に、そして、インターネットおよび有線ネットワーク(IEEE802.3つまりイーサネット(登録商標)を用いる)に接続することができる。
図10は、前述の方法の態様を実施するために用いることができる、例示的なコンピューティング環境1000の概略ブロック図である。前記システム1000には、一つ又は複数のクライアント(群)1002が含まれる。クライアント(群)1002は、ハードウェア及び/又はソフトウェア(例えば、スレッド、プロセス、コンピューティング機器)である。システム1000は、また、一つ又は複数のサーバ1004を含む。サーバ1004も、また、ハードウェア及び/又はソフトウェア(例えば、スレッド、プロセス、コンピューティング機器)である。サーバ(群)1004には、例えば、本明細書に記載のコンポーネントを用いて変換を実行するスレッドを組み込むことができる。クライアント1002とサーバ(群)1004間で可能な通信の一つは、二つ以上のコンピュータ・プロセス間での送信に適合したデータ・パケットの形でありうる。このシステム1000は、クライアント(群)1002とサーバ(群)1004との間の通信を支援するために用いることができる通信フレームワーク1006を含む。クライアント(群)1002は、クライアント(群)1002に局在する情報を格納するために用いることができる、一つ又は複数のクライアント用データ記憶装置(群)1008に動作可能に接続される。同様に、サーバ(群)1004は、サーバ群1004に局在する情報の格納に用いることができる、一つ又は複数のサーバ用データ記憶装置(群)1010に動作可能に接続される。

<試行結果>
以下の実施例は、単に、三次元指先トラッキングについてさらに説明するために記載されている。本説明例は、指先トラッキングのシステムや方法を何らかのやり方で限定していると解釈されてはならない。
図11は、本発明の主題のボール・フィット手法を用いて生成された三次元の指先位置データ1102と、グランド・トルース1104、すなわち指先の実測位置との比較を、四つのグラフで表したものである。各例で、ボール・フィット手法が、実測された指先位置に追従していることがわかる。
図12は、本発明のボール・フィット手法を用いて収集した、指先位置の三次元の画素データと、従来の指先位置特定技術を用いて収集した指先位置の画素データとの比較を示すグラフである。ボール・フィットによる指先位置の画素データを破線で示し、従来の指先位置特定による画素情報は実線で示している。ボール・フィット手法を用いて収集したデータから生成された軌跡の線は、従来の技術を用いて収集したデータから生成された軌跡の線(偏向や逸脱を数多く示している)よりもはるかに滑らかであることが分かる。ボール・フィット手法によるデータの軌跡の相対的な滑らかさは、本発明の主題のシステムと方法の強力なノイズ耐性に帰することができる。
図13は、平滑性試験の結果をグラフで表わしている。一つの指先が左から右へ、水平線1302、1304、1306に沿って移動し、指先位置の軌跡がポリラインとして画面上にプロットされている。ボール・フィット手法を用いて生成したポリライン1308は、従来の技術を用いて収集したデータの軌跡、すなわち、ポリライン1310よりも偏向及び/又は逸脱が少ないことが観察できる。ボール・フィットで得られた軌跡1308の相対的な滑らかさは、本発明の主題のシステムおよび方法の強力な耐ノイズ性によるものである。
図14は、平滑性試験の結果をグラフで示している。この平滑性試験は、指先を自由に動かし、指先位置の軌跡を一連の連続した線分やポリラインとして画面上にプロットすることによって行なわれた。ポリライン1402および1404の両方とも、同じ入力データ又は撮像データに基づいている。ボール・フィット手法を用いて生成されたポリラインの一部1406は、従来の技術を用いて生成された指先位置データのポリラインの一部1408よりも偏向及び/又は逸脱が少ないことがわかる。ボール・フィットによる軌跡の相対的な滑らかさは、本発明の主題のシステムおよび方法の強力なノイズ耐性によるものである。
ボール・フィット手法を用いる指先位置特定と、従来の単純な方法を用いる指先位置特定に対する安定性の指標係数を決定するためのテストを実施した。指先位置特定手段の安定性の指標係数を決定するテスト方法は、ディスプレイ上の特定の着色セルを覆うように指を動かすことにより行った。前記セルを指差したままこの指のフレーム・データを収集する間、手は静止したまま保持されている。前記セルを別の位置に移動し、指を新たなセルの位置に移動する。指のフレーム・データはそれぞれの場所で撮像される。前記安定性指標係数は、以下のように算出できる。
ここで、p1〜piは画素位置であり、p_avgはpiの平均値であり、そして、Nはpiの長さである。一つの単純な方法を用いて特定された指先位置の安定性指標係数は、上記の式に従って計算され、2.13になった。本発明の方法を用いて特定された指先位置の安定性指標係数は、上記の式に従って計算され、1.40になった。安定性指標係数が小さいほど安定性の増加を示すので、テスト結果からは、空間の特定位置を指差しているときの指先特定は、ボール・フィット手法の方が従来の単純な方法より安定していることが確認できる。
上記で説明したものには、様々な変形例がある。もちろん、様々な変形を説明する目的で、構成要素や方法の、想到し得るあらゆる組み合わせを記載することはできないが、本発明の技術分野の当業者には、多くの別の組合せや置換が可能であることがわかるであろう。したがって、本発明の主題の明細書には、添付の特許請求の範囲の技術的思想および特許請求の範囲内にある、前述の改変や変形および変化例をすべて包含するように意図されている。
本明細書に記載されている本願の発明主題の態様は完全自動化されたシステムに焦点を当てているが、前記態様は、一部自動化された態様や手動の態様を本発明の主題の開示範囲から除外していると解釈されるべきではない。いくつかの実施形態の一部又は全てを手動で実施することは、開示されている本発明の主題の技術的思想に反しない。
特に、上記のコンポーネント、機器、回路、システムなどによって実行される様々な機能に関連して、このようなコンポーネントを説明するために使用される用語(「手段」という呼び方を含む)は、特に明記しない限り、たとえ本明細書で説明された典型的な態様における機能を実行する構造と構造的には同じでなくても、説明しているコンポーネントの特定の機能を実行する任意のコンポーネント(例えば、機能的同等物)に対応するように考慮されている。この点で、上記の様々な態様には、上記様々な方法の動作及び/又はイベントを実行するためのコンピュータ実行可能な命令を格納するコンピュータ可読媒体並びにシステムを含むことを認識されたい。
さらに、いくつかの実装のうちの一つの実装に関連してある特定の特徴が開示されていることがあるが、このような特徴は、他の実装の他の特徴の一つ以上と組み合わせて、与えられた又は特定のアプリケーションのいずれに対しても望ましくかつ有利であるようにすることができる。用語「含む(include、including)」、およびこれらの変形が、詳細な説明又は特許請求の範囲において使用される限り、これらの用語は、用語「含む(comprising)」と同様に、「非排他的(inclusive)」であることを意味している。さらに、用語「又は(or)」は、詳細な説明や特許請求の範囲のいずれかで使用される場合は、「非排他的な『又は』」であることを意味する。
上記例示システムを見るかぎり、開示された本願発明の主題に従って実装することのできる方法を、いくつかのフロー図を参照して説明してきた。説明を簡単にするために、上記方法は、一連のブロックとして記載されているが、特許請求されている主題事項は上記ブロックの順序によって限定されないこと、いくつかのブロックは、ここに図示および記載されている順序とは異なる順序で及び/又は他のブロックと同時に発生することができると理解し、解釈されたい。また、本明細書に記載される方法を実施するために、図示されたすべてのブロックを必要としなくてもよい。さらに、本明細書に開示された方法は、コンピュータへの移送、転送を容易にするために、製品に格納することが可能である。製品という用語は、本明細書で使用される場合、任意のコンピュータ可読機器、キャリア、又は媒体からアクセス可能なコンピュータプログラムを含むことを意味している。
100: 三次元指先トラッキング支援システム
102: 画像検出コンポーネント
104: 指先特定コンポーネント
106: 指先トラッキング・コンポーネント
200: 三次元指先トラッキング並びに指先位置に基づく出力支援システム
202: 画像検出コンポーネント
204: 指先特定コンポーネント
206: 指先トラッキング・コンポーネント
208: 処理コンポーネント
210: データ・コンポーネント
212: 出力コンポーネント
214: 音声、映像等の出力
300: 三次元指先トラッキングのためのボール・フィット手法
302: 開始処理
304: 入力データ受信処理
306: 手セグメントの特定処理
308: 観測領域の算出処理
310: 観測領域の設定処理
312: 観測領域の前進処理
314: 観測領域内データの算出処理
316: 観測領域内データの解析処理
318: 指先位置の特定処理
320: 終了処理
402: 人差し指
404: 関心のある物体
502: 運転者
504: ステアリング・ホイール
506: 人差し指
508: カメラ
510: 運転者の手
602: ステアリング・ホイール
604: 運転者の人差し指
606: デプス画像内の非平滑な輪郭
608: 非平滑な輪郭
610: 指の平滑な輪郭
612: 手セグメントの最も左の端点
702: 手セグメント
704: デプス画像
706: 手セグメントの幅
708: ボール
802: 指先位置
804: 端点
806: 骨格
808: 非平滑な輪郭
900: 本発明の実装環境
902: コンピュータ
904: 処理ユニット
906: システム・メモリ
908: システム・バス
910: 読み出し専用メモリ(ROM)
912: ランダム・アクセス・メモリ(RAM)
914: ディスク・ドライブ
915: 外付けハード・ディスク・ドライブ
916: フロッピー・ディスク・ドライブ(FDD)
918: リムーバブル・フロッピー・ディスク
920: 光ディスク・ドライブ
922: CD−ROMディスク
924: ハード・ディスク・ドライブ・インターフェース
926: 磁気ディスク・ドライブ・インターフェース
928: 光ドライブ・インターフェース
930: オペレーティング・システム
932: アプリケーション・プログラム
934: プログラム・モジュール
936: プログラム・データ
938: キーボード
940: マウス
942: 入力機器インターフェース
944: モニタ
946: ビデオ・アダプタ
948: リモート・コンピュータ
1000: コンピューティング環境
1002: クライアント
1004: サーバ
1006: 通信フレームワーク
1008: クライアント用データ記憶装置(群)
1010: サーバ用データ記憶装置(群)
1102: ボール・フィット手法を用いて生成された三次元の指先位置データ
1104: グランド・トルース
1302、1304、1306: 水平線
1308: ボール・フィット手法を用いて生成したポリライン
1310: 従来の技術を用いて生成したポリライン
1402: ボール・フィット手法を用いて生成されたポリライン
1404: 従来の技術を用いて生成された指先位置のポリライン
1406: ボール・フィット手法を用いて生成されたポリラインの一部
1408: 従来の技術を用いて生成された指先位置のポリラインの一部

Claims (20)

  1. 三次元指先トラッキングのための、コンピュータで実行される方法であって、一つ以上のプロセッサ、及び前記一つ以上のプロセッサによって実行される一つ以上のプログラムを格納するメモリを用いるステップを含み、
    前記一つ以上のプログラムは、
    手に対応するセンサ・データを受信する、
    前記センサ・データ内の手セグメントを特定する、
    略円形の観測領域を生成する、
    前記特定された手セグメントの軸に沿って前記略円形の観測領域の少なくとも一部分を進める、
    前記観測領域内の前記手セグメントに対応づけられたデータを計算する、そして
    前記計算したデータおよび前記観測領域の位置に少なくとも部分的に基づいて三次元指先位置を決定する、命令を含むことを特徴とする、三次元指先トラッキング方法。
  2. 前記略円形の観測領域を生成する命令は、
    前記手セグメントの平均幅を計算する、そして
    前記手セグメントの前記計算された平均幅の約半分の半径を有する前記略円形の観測領域を生成する、命令を含むことを特徴とする、請求項1に記載の指先トラッキング方法。
  3. 前記手セグメントが前記手に付随する指であることを特徴とする、請求項2に記載の指先トラッキング方法。
  4. 前記センサ・データには、デプス・マップに対応付けられたデータを含むことを特徴とする、請求項1に記載の指先トラッキング方法。
  5. 前記観測領域内の前記手セグメントに対応付けられたデータを計算する命令は、前記観測領域内の前記手セグメントに対応する画素の割合を計算する命令を含むことを特徴とする、請求項4に記載の指先トラッキング方法。
  6. 前記指先位置を決定する命令は、前記観測領域内の前記手セグメントに対応する画素の前記計算された割合が約90%未満であるときに、前記略円形の観測領域の中心として三次元指先位置を設定する命令を含むことを特徴とする、請求項5に記載の指先トラッキング方法。
  7. 前記指先トラッキング方法は、ある間隔で三次元指先位置を特定することに、少なくとも部分的に基づいて指先の動きをトラッキングするステップを、さらに含むことを特徴とする、請求項1に記載の指先トラッキング方法。
  8. 前記指先トラッキング方法は、
    ユーザの位置を設定するステップと、
    前記ユーザから音声コマンドを受信するステップと、
    前記ユーザの位置に関する情報を記憶する少なくとも一つのデータベースにアクセスするステップと、
    前記指先位置と、前記音声コマンド、前記ユーザ位置又は前記データベース情報の少なくとも一つとに基づいた応答を出力するステップと、をさらに含むことを特徴とする、請求項1に記載の指先トラッキング方法。
  9. 前記応答を出力するステップは、音声応答又は視覚的応答のうちの少なくとも一つを提供するステップを含むことを特徴とする、請求項8に記載の指先トラッキング方法。
  10. 前記応答を出力するステップは、前記三次元の指先位置によって特定された世界オブジェクトに関連する情報を提供するステップを含むことを特徴とする、請求項8に記載の指先トラッキング方法。
  11. 三次元指先トラッキング・システムであって、
    フレーム内の少なくとも一つの手セグメントを記録する画像検出コンポーネントと、
    前記少なくとも一つの手セグメント内の指先位置を検出する指先特定コンポーネントと、
    前記少なくとも一つの手セグメントの分析に基づいて指先の三次元の動きをトラッキングする指先トラッキング・コンポーネントと、を含むことを特徴とする、三次元指先トラッキング・システム。
  12. 前記指先特定コンポーネントは、
    前記フレーム内の手セグメントを特定し、
    略円形の観測領域を生成し、
    前記特定された手セグメントの軸に沿って前記観測領域を進め、
    前記観測領域内の手セグメントに対応するデータを算出し、
    前記観測領域の位置に基づいて指先位置を決定する、ことを特徴とする、請求項11に記載の指先トラッキング・システム。
  13. 前記指先特定コンポーネントは、前記観測領域内の前記手セグメントに対応する画素の割合が前記観測領域内の画素の約90パーセント未満であることを前記算出されたデータが示すときに、指先位置を前記略円形の観測領域の中心として決定することを特徴とする、請求項11に記載の指先トラッキング・システム。
  14. 前記画像検出コンポーネントは、一連のフレームを撮像するステレオ・カメラを含むことを特徴とする、請求項11に記載の指先トラッキング・システム。
  15. 前記指先トラッキング・コンポーネントは、撮像した一連のフレーム内の指先位置をある間隔で検出することに、少なくとも部分的に基づいて指先の動きをトラッキングすることを特徴とする、請求項11に記載の指先トラッキング・システム。
  16. 前記指先トラッキング・システムは、
    指先位置と、音声コマンド、ユーザの位置、又はデータベース情報のうちの少なくとも一つと、を受信して処理する処理コンポーネントと、
    前記処理された指先位置と、前記音声コマンド、ユーザの位置、又はデータベース情報と、に基づいて出力を提供する出力コンポーネントと、をさらに含むことを特徴とする、請求項11に記載の指先トラッキング・システム。
  17. 前記出力コンポーネントの前記出力は、指先位置によって指定された世界オブジェクトに関連する情報を含むことを特徴とする、請求項16に記載の指先トラッキング・システム。
  18. 指先トラッキング・システムであって
    少なくとも一つの手セグメントの少なくとも一つの画像と、
    前記画像内の指先位置を検出する指先特定コンポーネントと、
    指先位置と、音声コマンド、ユーザの位置又はデータベース情報のうちの少なくとも一つと、を受信して処理する処理コンポーネントと、
    前記処理された指先位置、音声コマンド、ユーザ位置又はデータベース情報に少なくとも部分的に基づいて出力を提供する出力コンポーネントと、を含むことを特徴とする、指先トラッキング・システム。
  19. 前記指先特定コンポーネントは、
    前記画像中の手セグメントを特定し、
    略円形の観測領域を生成し、
    前記観測領域内の前記手セグメントに対応するデータを計算し、
    前記観測領域内の前記手セグメントに対応する計算されたデータが約90パーセント未満になるまで、特定された手セグメントの軸に沿って前記略円形の観測領域を進め、
    前記指先位置を前記略円形の観測領域の中心として決定すること、を特徴とする、請求項18に記載の指先トラッキング・システム。
  20. 前記出力は、指先位置によって特定された世界オブジェクトに関連する情報を含むことを特徴とする、請求項18に記載の指先トラッキング・システム。
JP2014037889A 2013-03-14 2014-02-28 三次元指先トラッキング Expired - Fee Related JP6301159B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/826,986 US9122916B2 (en) 2013-03-14 2013-03-14 Three dimensional fingertip tracking
US13/826,986 2013-03-14

Publications (2)

Publication Number Publication Date
JP2014179072A true JP2014179072A (ja) 2014-09-25
JP6301159B2 JP6301159B2 (ja) 2018-03-28

Family

ID=51419341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014037889A Expired - Fee Related JP6301159B2 (ja) 2013-03-14 2014-02-28 三次元指先トラッキング

Country Status (4)

Country Link
US (1) US9122916B2 (ja)
JP (1) JP6301159B2 (ja)
CN (1) CN104049742A (ja)
DE (1) DE102014204820A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018235371A1 (ja) * 2017-06-20 2018-12-27 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
WO2019171635A1 (ja) * 2018-03-07 2019-09-12 Necソリューションイノベータ株式会社 操作入力装置、操作入力方法、及びコンピュータ読み取り可能な記録媒体
JP2021522564A (ja) * 2018-04-17 2021-08-30 トヨタ リサーチ インスティテュート,インコーポレイティド 非制約環境において人間の視線及びジェスチャを検出するシステムと方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9296299B2 (en) * 2011-11-16 2016-03-29 Autoconnect Holdings Llc Behavioral tracking and vehicle applications
DE102013010932B4 (de) * 2013-06-29 2015-02-12 Audi Ag Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle
KR101913319B1 (ko) * 2013-07-16 2019-01-14 삼성전자주식회사 깊이 영상에서 인터페이싱 영역을 검출하는 방법 및 장치
DE102013012394A1 (de) * 2013-07-26 2015-01-29 Daimler Ag Verfahren und Vorrichtung zur Fernsteuerung einer Funktion eines Fahrzeugs
US9251411B2 (en) 2013-09-24 2016-02-02 Hand Held Products, Inc. Augmented-reality signature capture
KR102285915B1 (ko) * 2014-01-05 2021-08-03 마노모션 에이비 모바일 디바이스를 위한 실시간 3d 제스처 인식 및 트랙킹 시스템
DE102014116292A1 (de) * 2014-11-07 2016-05-12 Visteon Global Technologies, Inc. System zur Informationsübertragung in einem Kraftfahrzeug
US9606697B1 (en) 2014-11-11 2017-03-28 Google Inc. Display cursor for motion controller
TWI552892B (zh) * 2015-04-14 2016-10-11 鴻海精密工業股份有限公司 車輛控制系統及其操作方法
US9690119B2 (en) 2015-05-15 2017-06-27 Vertical Optics, LLC Wearable vision redirecting devices
IL244255A (en) 2016-02-23 2017-04-30 Vertical Optics Llc Wearable devices for deflecting vision
FR3048087B1 (fr) 2016-02-18 2018-02-16 Continental Automotive France Detection optique de la position du volant de conduite
DE112016006769B4 (de) 2016-05-20 2024-03-28 Ford Global Technologies, Llc Verfahren für Gebärdenspracheneingaben in eine Benutzerschnittstelle eines Fahrzeugs und Fahrzeug
CN111062360B (zh) * 2019-12-27 2023-10-24 恒信东方文化股份有限公司 一种手部追踪系统及其追踪方法
CN111625545B (zh) * 2020-06-08 2023-09-01 北京创鑫旅程网络技术有限公司 数据融合方法、数据融合装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム
US20090160767A1 (en) * 2007-12-20 2009-06-25 University Of Central Florida Research Foundation Systems and Methods of Camera-Based Fingertip Tracking
JP2009217477A (ja) * 2008-03-10 2009-09-24 Mitsubishi Electric Corp 入力装置
JP2009255904A (ja) * 2008-03-19 2009-11-05 Denso Corp 車両用操作入力装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204852B1 (en) 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
AU2002342067A1 (en) * 2001-10-12 2003-04-22 Hrl Laboratories, Llc Vision-based pointer tracking method and apparatus
US7774075B2 (en) 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
US7893920B2 (en) 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
EP1980935A1 (en) * 2006-02-03 2008-10-15 Matsushita Electric Industrial Co., Ltd. Information processing device
US8941588B2 (en) 2008-04-24 2015-01-27 Oblong Industries, Inc. Fast fingertip detection for initializing a vision-based hand tracker
WO2007144014A1 (en) 2006-06-15 2007-12-21 Nokia Corporation Mobile device with virtual keypad
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US7877706B2 (en) 2007-01-12 2011-01-25 International Business Machines Corporation Controlling a document based on user behavioral signals detected from a 3D captured image stream
US8472665B2 (en) * 2007-05-04 2013-06-25 Qualcomm Incorporated Camera-based user input for compact devices
US9001036B2 (en) * 2007-12-20 2015-04-07 University Of Central Florida Research Foundation, Inc. Systems and methods of camera-based fingertip tracking
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
WO2009155465A1 (en) 2008-06-18 2009-12-23 Oblong Industries, Inc. Gesture-based control system for vehicle interfaces
JP4771183B2 (ja) * 2009-01-30 2011-09-14 株式会社デンソー 操作装置
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
TWI398818B (zh) * 2009-06-30 2013-06-11 Univ Nat Taiwan Science Tech 手勢辨識方法與系統
US20110074675A1 (en) * 2009-09-29 2011-03-31 Nokia Corporation Method and apparatus for initiating a feature based at least in part on the tracked movement
US20110219340A1 (en) 2010-03-03 2011-09-08 Pathangay Vinod System and method for point, select and transfer hand gesture based user interface
US8817087B2 (en) * 2010-11-01 2014-08-26 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
US20120117514A1 (en) 2010-11-04 2012-05-10 Microsoft Corporation Three-Dimensional User Interaction
US9135503B2 (en) * 2010-11-09 2015-09-15 Qualcomm Incorporated Fingertip tracking for touchless user interface
US8723789B1 (en) * 2011-02-11 2014-05-13 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device
US9063573B2 (en) 2011-02-17 2015-06-23 The Board Of Trustees Of The Leland Stanford Junior University Method and system for touch-free control of devices
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
CN103620535B (zh) * 2011-06-13 2017-06-27 西铁城时计株式会社 信息输入装置
US20130063336A1 (en) * 2011-09-08 2013-03-14 Honda Motor Co., Ltd. Vehicle user interface system
KR20140069124A (ko) * 2011-09-19 2014-06-09 아이사이트 모빌 테크놀로지 엘티디 증강 현실 시스템용 터치프리 인터페이스
CN108469899B (zh) * 2012-03-13 2021-08-10 视力移动技术有限公司 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法
JP2013205983A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
US9652043B2 (en) * 2012-05-14 2017-05-16 Hewlett-Packard Development Company, L.P. Recognizing commands with a depth sensor
US9213436B2 (en) 2012-06-20 2015-12-15 Amazon Technologies, Inc. Fingertip location for gesture input
US20140258942A1 (en) * 2013-03-05 2014-09-11 Intel Corporation Interaction of multiple perceptual sensing inputs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム
US20090160767A1 (en) * 2007-12-20 2009-06-25 University Of Central Florida Research Foundation Systems and Methods of Camera-Based Fingertip Tracking
JP2009217477A (ja) * 2008-03-10 2009-09-24 Mitsubishi Electric Corp 入力装置
JP2009255904A (ja) * 2008-03-19 2009-11-05 Denso Corp 車両用操作入力装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018235371A1 (ja) * 2017-06-20 2018-12-27 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
US10921934B2 (en) 2017-06-20 2021-02-16 Sony Corporation Information processing apparatus, information processing method, and recording medium
WO2019171635A1 (ja) * 2018-03-07 2019-09-12 Necソリューションイノベータ株式会社 操作入力装置、操作入力方法、及びコンピュータ読み取り可能な記録媒体
JPWO2019171635A1 (ja) * 2018-03-07 2021-02-12 Necソリューションイノベータ株式会社 操作入力装置、操作入力方法、及びプログラム
JP2021522564A (ja) * 2018-04-17 2021-08-30 トヨタ リサーチ インスティテュート,インコーポレイティド 非制約環境において人間の視線及びジェスチャを検出するシステムと方法

Also Published As

Publication number Publication date
US20140270352A1 (en) 2014-09-18
CN104049742A (zh) 2014-09-17
DE102014204820A1 (de) 2014-09-18
JP6301159B2 (ja) 2018-03-28
US9122916B2 (en) 2015-09-01

Similar Documents

Publication Publication Date Title
JP6301159B2 (ja) 三次元指先トラッキング
JP6896077B2 (ja) 車両自動パーキングシステム及び方法
JP6306236B2 (ja) 奥行きセンサーの使用による装置のタッチフリー操作
JP4278979B2 (ja) ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム
KR101334107B1 (ko) 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101606628B1 (ko) 포인팅 방향 검출 장치 및 그 방법과, 프로그램 및 컴퓨터 판독가능한 매체
US20130010071A1 (en) Methods and systems for mapping pointing device on depth map
JP2018084573A (ja) 頑健で効率的な車両測位用のアルゴリズム及びインフラ
JP6335556B2 (ja) ポインティングによる情報クエリ
Paletta et al. 3D attention: measurement of visual saliency using eye tracking glasses
RU2708027C1 (ru) Способ передачи движения субъекта из видео на анимированного персонажа
JP2016526313A (ja) 総体的カメラ移動およびパノラマカメラ移動を使用した単眼視覚slam
JP6386768B2 (ja) 人間工学的な人体模型の姿勢を作成し、かつナチュラルユーザインターフェースを用いてコンピュータ支援設計環境を制御すること
JP2015520471A (ja) ジェスチャー入力のための指先の場所特定
KR101470757B1 (ko) 증강현실 서비스 제공 방법 및 장치
CN102508578A (zh) 投影定位装置及方法、交互系统和交互方法
CN103164696A (zh) 手势识别方法及装置
JP2004265222A (ja) インタフェース方法、装置、およびプログラム
CN112105892A (zh) 使用运动数据和面元数据识别地图特征
WO2018119676A1 (zh) 一种显示数据处理方法及装置
CN115515487A (zh) 基于使用多视图图像的3d人体姿势估计的基于视觉的康复训练系统
JP2874865B1 (ja) 見学者案内支援装置および方法
JP2010086367A (ja) 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
CN111176427B (zh) 基于手持式智能设备的三维空间绘画方法和手持式智能设备

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180228

R150 Certificate of patent or registration of utility model

Ref document number: 6301159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees