JP2009099042A - オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法 - Google Patents
オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法 Download PDFInfo
- Publication number
- JP2009099042A JP2009099042A JP2007271491A JP2007271491A JP2009099042A JP 2009099042 A JP2009099042 A JP 2009099042A JP 2007271491 A JP2007271491 A JP 2007271491A JP 2007271491 A JP2007271491 A JP 2007271491A JP 2009099042 A JP2009099042 A JP 2009099042A
- Authority
- JP
- Japan
- Prior art keywords
- marker
- window
- markers
- screen
- operating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Abstract
【解決手段】本発明に係るオブジェクト操作装置は、撮像した操作体に基づき画面中のオブジェクトを操作するオブジェクト操作装置であって、演算装置と、上記演算装置と接続する表示装置と、上記演算装置と接続する撮像装置とを備え、上記撮像装置は所定の操作体を撮像し、上記演算装置は撮像された上記操作体の画像をマーカとして上記表示装置に表示し、上記マーカの動きにより上記表示装置の画面におけるオブジェクトが操作されることを特徴とする。
【選択図】図1
Description
撮像した操作体に基づき画面中のオブジェクトを操作するオブジェクト操作装置であって、
演算装置と、
上記演算装置と接続する表示装置と、
上記演算装置と接続する撮像装置と
を備え、
上記撮像装置は所定の操作体を撮像し、上記演算装置は撮像された上記操作体の画像をマーカとして上記表示装置に表示し、
上記マーカの動きにより上記表示装置の画面におけるオブジェクトが操作されることを特徴とする。
デジタル画像フレームデータにて、所定の色に着目して画素単位でビットマップB(x,y)を作成する工程と、
各々のy(縦軸)値におけるビットの存在を、始点(x)及び幅(w)による線分要素(x,y,w)で表す工程と、
上記各線分要素の間の接触関係の存否を判断し、接触関係にある線分要素を一まとめにして物体要素とする工程と、
物体要素のうちからノイズを除去する工程と
を含む。
図1は、本発明の実施形態に係るオブジェクト操作装置2の概略の機能を示すブロック図である。図2にも示すように、本発明に係るオブジェクト操作装置2は、表示装置4及び演算装置6を備えるコンピュータ8、該コンピュータ8に接続するデジタル撮像装置(DVカメラ)10、及び、シール12で構成される。演算装置6の各機能部であるマーカ情報取得部14、マーカ作成部16、マーカ表示部18、及び対象オブジェクト操作部20は、CPUが適切なコンピュータプログラムを実行することで実現される。デジタル撮像装置(DVカメラ)10は、コンピュータ8の表示装置4の上端に組み込まれるものであってもよい(図2参照)。
次に、対象オブジェクト操作部20の動作を説明する。対象オブジェクト操作部20の動作に係るコンピュータプログラムでは、
(1)マーカ、
(2)レシーバ、
(3)テンプレート、
(4)オペレーション
が定義されて利用される。なお、図11は、本明細書におけるマーカ、レシーバ、テンプレート及びオペレーションの表記法を示す一覧表である。この表記法はコンピュータプログラムでの表現を基にしている。
p=kActionPushFromRight
等の定数となる。このpは、(後で詳述する)ノイズが多い場合などに、発行すべきオペレーションを決定するパラメータとなり得る。例えば、ノイズが多い場合には直前のpと現在のpが一致するときのみ、そのpが示すオペレーションが発行される、というように利用される。
n個のレシーバの集合は{Rn}で表現し、n個目のマーカはRnと表現する。表示画面において、RnはRn+1より必ず手前にある(即ち、RnはRn+1の上に重なっている)ものとする。また、n番目のレシーバの左下x座標はRn→xと表現する。
Q(Rk,{Mn}) は、一つのレシーバRkと、マーカの集合{Mn}とを引数とする関数である。この関数Qは、{Mn}がRkに対するその操作を表している場合には“True”(真)を、表していない場合には“False”(偽)を、返す。
テンプレートは複数設けられ、{Tn}で表現される。また、常に、
Tn→d≦Tn+1→d
が成り立つように、コンパイル時に{Tn}の内容の順番(適用の優先順位)が項数として決定される。表1は、テンプレートの内容である。表の上から下へ{Tn}のn(項数)が順に大きくなる。なお、表1の内容やn(項数)の順序は、一つの例に過ぎないが、単純な動作から複雑な動作へと移行するように並べられている。
On→O(Rp,{Mq})
は、マーカの集合{Mq}がn番目のオペレーションOnを引き起こし、そのオペレーションOnを一個のレシーバRpに適用する、という意味である。
条件T∀p=[1,n]→Q(R1,{Mq})
が、Trueを返すのかFalseを返すのかを調べる。最初にFalseが返されたときのテンプレートの項数を“k”と置くと、オペレーションとして、
Ok-1→O(R1,{Mq})
が実行される。
条件Tp=1and2→Q(R1,{Mq})
がFalseを返す場合、対象レシーバはR2に移行する。つまり、より単純な動作であり、T3以降のテンプレートの基本動作となるT1とT2のテンプレートの条件Qが偽(False)を返す場合、R1にはマーカは作用しないものとする。
条件T1→Q(R2,{Mq})
が、Trueを返すのかFalseを返すのかを調べるのであるが、テンプレートTのうち、つかむ動作のみが照合の対象となる。表1では、「内側をつかむ」(T1)のみが照合の対象となる。けだし、一般的に、人間の行為は最も手前にあるもの(オブジェクト)に集中するからであり、「押す」「挟む」「広げる」「内側から押し広げる」などの操作はR1(最も手前のレシーバ)のみが対象とされるべきだからである。また、内側を掴む動作の場合でも、それに関わるマーカがレシーバR2の可視領域内(つまり、他のレシーバーで隠れていない部分)に存在することが条件となる。
T1→Q(Rp,{Mq})
が、Trueを返すのかFalseを返すのかを調べるのであるが、テンプレートTのうち、つかむ動作のみが照合の対象となる。
図7は、オブジェクト操作装置2におけるマーカ作成部16の、フレーム単位の画像データからマーカを抽出するまでの処理を表すフローチャート図である。また、図8は、図7に示すフローチャート図における「ノイズを除去する」工程(S08)を更に詳細化したフローチャート図である。図7及び図8を用いてマーカ作成部のマーカ抽出処理を説明する。
エレメント指向とは、n次元の弧状連結の立体を、互いに接している個々の(n−1)次元の立体で表すアルゴリズム、及びその背景にある考え方を言い、本願発明者が案出した考え方である。本明細書では、2次元の弧状連結の平面図形を、互いに接している個々の線分で表す、というエレメント指向の考え方を利用することになる。このエレメント指向は、例えば、多数の平行平面画像で構成される人体のCTスキャンの画像から3次元の立体臓器のモデルを形成する場合や、コンピュータグラフィックスの3次元のモデリングツールを構築する場合などに、利用され得る。
(判断基準): La→yとLb→yとの差の絶対値が1のとき、上式のDが正ならば接触していない、Dが0ならば点で接触している、Dが負ならば線分で接触している。La→yとLb→yとの差が0のとき、上式のDが0ならば接触している。それ以外の場合は接触していない。
図8は、ノイズの除去の工程を詳細化したフローチャート図である。このノイズの除去の工程を、図10に示す画面の物体要素の例を用いて説明する。図10に示す物体要素の例では、3つの黄色いマーカ、黄色い筆記具、黄色い人形、及び、黄色の模様の入ったカーテンが含まれている。
上記ノイズの除去の説明において、図8に示すフローチャートを用いてノイズの除去の工程を詳細に示したが、ノイズの除去の工程は上述のものに限定されるわけではない。図13に示すように、物体要素が他のサイクル状の物体要素内部にある状況を考える。なお、図13には示されていないが、内部の物体要素は「緑」の物体要素G(Green Area)、その外延にサイクル状に存在する物体要素は「青」の物体要素B(Blue Area)であるとする。
BOOL GreenAreaIsInsideBlueArea(AreaElement G, AreaElement B)
{
int i,j;
for (i=0 ; i<Gの線分要素の個数 ; i++)
{
int l[十分大きな整数];
BOOL inside = NO;
int x = G(i(x)); //Gのi番目の線分要素の始点のx座標
int y = G(i(y)); //Gのi番目の線分要素の始点のy座標
int w = G(i(w)); //Gのi番目の線分要素の幅
int c = 0; //y座標が一致する線分要素の数
for (j=0 ; j<Bの線分要素の個数 ; j++)
{
if (y == B(j(y))) //y座標が一致するものがあれば
{
l[c] = j;
c = c+1; //一致しているから数を1プラス
}
}
if (c > 1)
{
BOOL left_exists = NO;BOOL right_exists = NO; //Gの線分要素の左、右にBの線分要素があるか
int k;
for (k=0 ; k<c ; k++) //y座標が同じものについてループ
{
LineElement L = B(l[c]);
if (x + w < L(x))
{
right_exists = YES;
} else if (L(x) + L(w) < x) {
left_exists = YES;
}
}
if (left_exists)
{
if (right_exists)
{
inside = YES;
} else {
inside = NO;
}
} else {
inside = NO;
}
} else {
inside = NO;
}
if (inside == NO)
{
return NO; //左右ともに囲まれていない線分があれば直ちに関数から抜け出してNOを返す
}
}
return YES; //一度もinsideがNOになっていないから、全ての線分要素が左右囲まれているから、物体要素も左右囲まれている。よって、GはBの中にある。
}
上記マーカ作成部の説明において、マーカ作成の一例を述べたが、マーカ及びシールは上述のものに限定されるわけではない。例えば、親指には赤色のシールを、親指以外の指には黄色のシールを貼り、親指以外の指のシールの鏡像たるマーカは、上述の「対象オブジェクト操作部」の説明で述べたマーカと同じ機能を有し、親指の(赤色の)シールの鏡像たるマーカ(の表示)は、マウスのクリックの機能を有するようにしてもよい。
Claims (16)
- 撮像した操作体に基づき画面中のオブジェクトを操作するオブジェクト操作装置であって、
演算装置と、
上記演算装置と接続する表示装置と、
上記演算装置と接続する撮像装置と
を備え、
上記撮像装置は所定の操作体を撮像し、上記演算装置は撮像された上記操作体の画像をマーカとして上記表示装置に表示し、
上記マーカの動きにより上記表示装置の画面におけるオブジェクトが操作されることを特徴とするオブジェクト操作装置。 - 上記撮像装置が撮像したフレームデータから、上記演算装置がビットマップB(x,y)を作成し、
更に上記演算装置は、
上記フレームデータから物体要素を抽出し、上記物体要素を、始点及び幅で表される線分要素の集合として表現し処理することにより上記マーカを生成することを特徴とする請求項1に記載のオブジェクト操作装置。 - 上記演算装置は上記操作体の画像の鏡像をマーカとして上記表示装置に表示することを特徴とする請求項2に記載のオブジェクト操作装置。
- 上記撮像装置は複数の操作体を撮像し、上記複数の操作体の各々に対応したマーカを上記オブジェクトに作用させることでオブジェクトが操作されることを特徴とする請求項3に記載のオブジェクト操作装置。
- 上記オブジェクトがウインドウであり、
複数の上記操作体による複数の上記マーカを上記ウインドウの内側で互いに接近させると、
上記ウインドウが表示画面の前面にないならば上記ウインドウが前面に移動し、上記ウインドウが表示画面の前面にあるならば上記ウインドウがドラッグされることを特徴とする請求項4に記載のオブジェクト操作装置。 - 上記オブジェクトがウインドウであり、
複数の上記操作体による複数の上記マーカを上記ウインドウ外側から上記ウインドウの一辺に接近させると、
上記ウインドウが表示画面の座標軸に平行に移動することを特徴とする請求項4に記載のオブジェクト操作装置。 - 上記オブジェクトがウインドウであり、
複数の上記操作体による複数の上記マーカのうち、1個以上ずつのマーカを上記ウインドウの一組の対辺の夫々の外側から中心に近づけさせると、
上記ウインドウが、上記一組の対辺の夫々に交差し且つ中心に向かう方向に、縮小することを特徴とする請求項4に記載のオブジェクト操作装置。 - 上記オブジェクトがウインドウであり、
複数の上記操作体による複数の上記マーカのうち、1個以上ずつのマーカを上記ウインドウの一組の対辺の夫々の内側から、対辺の夫々に接して広げさせると、
上記ウインドウが、上記一組の対辺の夫々に交差し且つ中心から遠ざかる方向に、広がることを特徴とする請求項4に記載のオブジェクト操作装置。 - 上記オブジェクトがウインドウであり、
3個以上の上記操作体による3個以上の上記マーカのうち、1個以上ずつのマーカを上記ウインドウの3乃至4辺の夫々の外側に接して存在させ且つそれらマーカを同じ速度ベクトルで移動させると、
上記ウインドウが平行に移動することを特徴とする請求項4に記載のオブジェクト操作装置。 - 上記オブジェクトがウインドウであり、
3個以上の上記操作体による3個以上の上記マーカのうち、1個以上ずつのマーカを上記ウインドウの3乃至4辺の夫々の内側に接して存在させ且つそれらマーカを中心から遠ざかる方向へ移動させると、
マーカの動きに合わせて上記ウインドウの幅及び高さが広がることを特徴とする請求項4に記載のオブジェクト操作装置。 - 上記演算装置において、マーカとオブジェクトの関係が操作内容毎に予め定義され、更に、複数の上記操作内容が基本的操作から複雑な操作へと予め順序付けされており、
更に、上記演算装置におけるフレームデータの処理において、上記順序に沿って、マーカとオブジェクトとが予め定義された上記関係を満たすか否かが確認され、満たさないことが確認されたときの上記順序付けにおける項数を“k”と置くと、(k−1)番目の上記順序付けに対応する操作内容がマーカからオブジェクトに対する操作となることを特徴とする請求項4に記載のオブジェクト操作装置。 - 上記演算装置におけるフレームデータの処理において、上記表示装置の画面上の複数のオブジェクトは、画面の手前から画面の奥へと順番付けされ、
マーカの操作の対象がどのオブジェクトであるかが、上記順番付けに沿って確認されることを特徴とする請求項11に記載のオブジェクト操作装置。 - 上記表示装置の画面上の最も手前にあるオブジェクト以外のオブジェクトに対して為される操作の種類が、上記表示装置の画面上の最も手前にあるオブジェクトに対して為される操作の種類よりも少ないことを特徴とする請求項12に記載のオブジェクト操作装置。
- デジタル画像フレームデータにて、所定の色に着目して画素単位でビットマップB(x,y)を作成する工程と、
各々のy(縦軸)値におけるビットの存在を、始点(x)及び幅(w)による線分要素(x,y,w)で表す工程と、
上記各線分要素の間の接触関係の存否を判断し、接触関係にある線分要素を一まとめにして物体要素とする工程と、
物体要素のうちからノイズを除去する工程と
を含む、デジタル画像フレームデータからマーカを特定する方法。 - ビットマップB(x,y)を作成する工程が、
デジタル画像フレームデータの画素ごとにRGB値からHSV値に変換してH(Hue;色相)、S(Saturation;彩度)及びV(Value;明度)の値を取得する工程と、
予め設定されているHSV値(H0,S0,V0)と、個々の画素(x,y)での上記HSV値を、H、S、V夫々について比較し、夫々の差異が夫々の閾値以下の画素のみマーカ候補部分として抜き出してビットをオンとし、それ以外の画素ではビットをオフとする工程と
を含むことを特徴とする請求項14に記載の方法。 - 上記物体要素のうちからノイズを除去する工程が、
物体要素の面積が、第1の所定値より大きい値のもの、又は第2の所定値より小さい値のものを除去する工程と、
正円率が所定値より低い物体要素を除去する工程と、
数珠状のノイズを除去する工程と、
現在のフレーム上の各物体要素と、記録されている一つ前のフレーム上の各物体要素を対比させて、重心座標が同じ又は重心座標の差異が所定値以下である物体要素同士を、同じ物体要素として結び付ける工程と、
直前の一つ又は数枚のフレームと現在のフレームとにおける同一物体要素の重心座標の差異から、各物体要素の速度ベクトルを求める工程と
を含むことを特徴とする請求項14に記載の方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007271491A JP4938617B2 (ja) | 2007-10-18 | 2007-10-18 | オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法 |
US12/285,937 US8232964B2 (en) | 2007-10-18 | 2008-10-16 | Apparatus for operating objects and a method for identifying markers from digital image frame data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007271491A JP4938617B2 (ja) | 2007-10-18 | 2007-10-18 | オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009099042A true JP2009099042A (ja) | 2009-05-07 |
JP2009099042A5 JP2009099042A5 (ja) | 2010-12-24 |
JP4938617B2 JP4938617B2 (ja) | 2012-05-23 |
Family
ID=40623260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007271491A Expired - Fee Related JP4938617B2 (ja) | 2007-10-18 | 2007-10-18 | オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8232964B2 (ja) |
JP (1) | JP4938617B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2479896A (en) * | 2010-04-28 | 2011-11-02 | Peekabu Studios Ltd | User generated control signals using fiducial markers associated with the user |
KR101558200B1 (ko) * | 2010-12-06 | 2015-10-08 | 한국전자통신연구원 | 비접촉 방식의 그래픽 사용자 인터페이스 제공장치 및 방법 |
CN103135754B (zh) * | 2011-12-02 | 2016-05-11 | 深圳泰山体育科技股份有限公司 | 采用交互设备实现交互的方法 |
KR20130072638A (ko) * | 2011-12-22 | 2013-07-02 | 엘지전자 주식회사 | 영상표시장치의 동작 방법 |
KR20150110032A (ko) * | 2014-03-24 | 2015-10-02 | 삼성전자주식회사 | 영상데이터 처리 전자장치 및 방법 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6295686A (ja) * | 1985-10-21 | 1987-05-02 | Sumitomo Electric Ind Ltd | 画像中の物体の稜線の線分近似方法 |
JPH07182101A (ja) * | 1993-10-26 | 1995-07-21 | Itu Res Inc | グラフィック入力装置および方法、グラフィックオブジェクト操作方法、グラフィック入力信号供給方法 |
WO1999052072A1 (fr) * | 1998-04-07 | 1999-10-14 | Omron Corporation | Dispositif et procede de traitement d'images, support de stockage de programme pour traitement d'images, et dispositif d'inspection |
JP2000011171A (ja) * | 1998-06-24 | 2000-01-14 | Matsushita Electric Works Ltd | 線群パターン認識方法 |
JP2003346162A (ja) * | 2002-05-28 | 2003-12-05 | Japan Science & Technology Corp | 手の画像認識による入力システム |
JP2004220419A (ja) * | 2003-01-16 | 2004-08-05 | Sony Corp | 動きベクトル検出装置、動きベクトル検出方法、プログラム、記録媒体 |
JP2004240672A (ja) * | 2003-02-05 | 2004-08-26 | Minolta Co Ltd | 画像編集プログラム |
JP3953450B2 (ja) * | 2003-09-05 | 2007-08-08 | 日本電信電話株式会社 | 3次元オブジェクト姿勢操作方法およびプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0849697B1 (en) * | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
US6160923A (en) * | 1997-11-05 | 2000-12-12 | Microsoft Corporation | User directed dust and compact anomaly remover from digital images |
JP2000105671A (ja) | 1998-05-11 | 2000-04-11 | Ricoh Co Ltd | 座標入力/検出装置および電子黒板システム |
JP4033582B2 (ja) * | 1998-06-09 | 2008-01-16 | 株式会社リコー | 座標入力/検出装置および電子黒板システム |
JP2004038429A (ja) | 2002-07-02 | 2004-02-05 | Nippon Telegr & Teleph Corp <Ntt> | 合成画像表示システム、合成画像表示方法、合成画像表示プログラム及びそのプログラムを記録した記録媒体 |
JP2004078488A (ja) | 2002-08-15 | 2004-03-11 | Advanced Telecommunication Research Institute International | 仮想デスクトップ装置 |
JP4429047B2 (ja) * | 2004-03-11 | 2010-03-10 | キヤノン株式会社 | 座標入力装置及びその制御方法、プログラム |
JP2005301693A (ja) | 2004-04-12 | 2005-10-27 | Japan Science & Technology Agency | 動画編集システム |
JP4575829B2 (ja) | 2005-03-30 | 2010-11-04 | 財団法人エヌエイチケイエンジニアリングサービス | 表示画面上位置解析装置及び表示画面上位置解析プログラム |
US7538894B2 (en) * | 2005-04-15 | 2009-05-26 | Canon Kabushiki Kaisha | Coordinate input apparatus, control method thereof, and program |
US8345047B2 (en) * | 2007-05-30 | 2013-01-01 | Deere & Company | Method for displaying performance information for one or more vehicles |
US8726194B2 (en) * | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
-
2007
- 2007-10-18 JP JP2007271491A patent/JP4938617B2/ja not_active Expired - Fee Related
-
2008
- 2008-10-16 US US12/285,937 patent/US8232964B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6295686A (ja) * | 1985-10-21 | 1987-05-02 | Sumitomo Electric Ind Ltd | 画像中の物体の稜線の線分近似方法 |
JPH07182101A (ja) * | 1993-10-26 | 1995-07-21 | Itu Res Inc | グラフィック入力装置および方法、グラフィックオブジェクト操作方法、グラフィック入力信号供給方法 |
WO1999052072A1 (fr) * | 1998-04-07 | 1999-10-14 | Omron Corporation | Dispositif et procede de traitement d'images, support de stockage de programme pour traitement d'images, et dispositif d'inspection |
JP2000011171A (ja) * | 1998-06-24 | 2000-01-14 | Matsushita Electric Works Ltd | 線群パターン認識方法 |
JP2003346162A (ja) * | 2002-05-28 | 2003-12-05 | Japan Science & Technology Corp | 手の画像認識による入力システム |
JP2004220419A (ja) * | 2003-01-16 | 2004-08-05 | Sony Corp | 動きベクトル検出装置、動きベクトル検出方法、プログラム、記録媒体 |
JP2004240672A (ja) * | 2003-02-05 | 2004-08-26 | Minolta Co Ltd | 画像編集プログラム |
JP3953450B2 (ja) * | 2003-09-05 | 2007-08-08 | 日本電信電話株式会社 | 3次元オブジェクト姿勢操作方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20090122010A1 (en) | 2009-05-14 |
JP4938617B2 (ja) | 2012-05-23 |
US8232964B2 (en) | 2012-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shriram et al. | Deep learning-based real-time AI virtual mouse system using computer vision to avoid COVID-19 spread | |
Zhou et al. | A novel finger and hand pose estimation technique for real-time hand gesture recognition | |
JP6079832B2 (ja) | ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法 | |
JP6323040B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US10078796B2 (en) | Apparatus and method of hand gesture recognition based on depth image | |
Rautaray et al. | Real time multiple hand gesture recognition system for human computer interaction | |
Badi et al. | Hand posture and gesture recognition technology | |
JP4938617B2 (ja) | オブジェクト操作装置、及び、デジタル画像フレームデータからマーカを特定する方法 | |
WO2013051681A1 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
Ma et al. | Real-time and robust hand tracking with a single depth camera | |
Barsoum | Articulated hand pose estimation review | |
Chowdhury et al. | Gesture recognition based virtual mouse and keyboard | |
Shah et al. | Hand gesture based user interface for computer using a camera and projector | |
JP6651388B2 (ja) | ジェスチャモデリング装置、ジェスチャモデリング方法、ジェスチャモデリングシステム用のプログラム、およびジェスチャモデリングシステム | |
Titlee et al. | A novel design of an intangible hand gesture controlled computer mouse using vision based image processing | |
EP3309713B1 (en) | Method and device for interacting with virtual objects | |
Ghodichor et al. | Virtual mouse using hand gesture and color detection | |
JP6425299B2 (ja) | 手指動作検出装置、手指動作検出方法、手指動作検出プログラム、及び仮想物体処理システム | |
Fujiwara et al. | Interactions with a line-follower: An interactive tabletop system with a markerless gesture interface for robot control | |
Siam et al. | Human computer interaction using marker based hand gesture recognition | |
Mazumder et al. | Finger gesture detection and application using hue saturation value | |
Jain et al. | Human computer interaction–Hand gesture recognition | |
Rustagi et al. | Virtual Control Using Hand-Tracking | |
JP2014038543A (ja) | 指文字を認識するための文字認識システムおよびプログラム | |
Shin et al. | Deep Learning-based Hand Pose Estimation from 2D Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101018 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101018 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20101018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20101018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120117 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |