JP2010525432A - ボリューム認識方法およびシステム - Google Patents
ボリューム認識方法およびシステム Download PDFInfo
- Publication number
- JP2010525432A JP2010525432A JP2010503361A JP2010503361A JP2010525432A JP 2010525432 A JP2010525432 A JP 2010525432A JP 2010503361 A JP2010503361 A JP 2010503361A JP 2010503361 A JP2010503361 A JP 2010503361A JP 2010525432 A JP2010525432 A JP 2010525432A
- Authority
- JP
- Japan
- Prior art keywords
- clusters
- cluster
- point
- volume recognition
- recognition method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
他の代替としては画像認識がある。最も単純な形式においては、画像認識システムは、対照的な色の2値パターン(例えばバーコード)を認識し、そしてこれらのパターンを計算処理のためにバイナリ信号に変換する。もっと進んだ画像認識システムは画像のより複雑なパターンを認識することができ、応答に多くの種類の信号を提供することができる。このような画像認識システムは、例えば、米国特許6256033号で提供され、そこでは画像システム範囲内でユーザのジェスチャを認識する。
しかしながら、従来の画像システムは奥行き成分を知覚できず、ユーザの2次元投影像しか提供できない。結果として、ユーザのジェスチャの認識は本質的に問題があり、可能な入力の範囲に限定され、認識ミスの可能性で欠陥だらけになる。特に、このようなシステムはユーザを背景と分けてしまう問題がある。
a)第1の点を含む第1のクラスターを生成し、
b)次の操作を他の各点について実行する:
(i)重心が3次元空間の前記他の点に最も近いクラスターを見つけ、
(ii)3次元空間における前記他の点と前記最も近いクラスターの絶対距離が既定の閾値θよりも大きく、かつクラスターの数が既定の最大値qよりも少ない場合、前記他の点を含む追加クラスターを生成する。もしくは、
(iii)前記絶対距離が既定の閾値θよりも大きくないか、クラスターの数が既に既定の最大値qに達している場合、重心が前記他の点と最も近いクラスターに前記他の点を追加する。
a)前記二つのクラスターの各々の点の投影された二つのクラスターの重心を結ぶ軸に沿った分布の標準偏差を計算し、
b)標準偏差の和に既定の係数S(例えば2)を掛けたものが、二つのクラスターの重心間の絶対距離より大きいかチェックする。
a)前記選択されたクラスターの重心及び主軸を計算する。
b)選択されたクラスターの主軸に関し、選択されたクラスターの点同士の距離の分布曲線を計算する。
c)前記分布曲線の変曲点を計算する。
d)選択したクラスターの前記主軸に関する距離がD・sより低い点を選択する。ここで、sは前記変曲点の、選択されたクラスターの前記主軸への距離であり、Dは高くて1.25、好ましくは高くて1の係数である。
e)胴の質量中心および主軸を選択した点の重心及び主軸として計算する。
i)重心7が前記他の点5に3次元空間で最も近いクラスター6を探し、
ii)もし3次元空間における前記他の点と前記最も近い重心7の絶対距離が既定の閾値θより大きく、かつクラスター6の数が既定の最大値qより小さい場合、前記他の点5を含む追加クラスター6を生成する、もしくは
iii)もし前記絶対距離が既定の閾値θより大きくないか、クラスターの数が既定の最大値qに達している場合、前記他の点5を重心が該他の点5に最も近いクラスターに該他の点5を追加する。
・TOF3次元カメラ3の範囲内に人間のユーザ1がいるかいないか。
・人間のユーザ1に対応すると認識できるクラスター6の数。および/もしくは
・部屋4の全体的な配置。
・少なくともクラスター6の部分の釣り合い。
・空間における少なくともクラスター6の部分の分布。
・少なくともクラスター6の部分における点5の分布。
・少なくともクラスター6の部分の重心7。および/または
・少なくともクラスター6の部分の主軸。
・データ処理装置2によって生成された仮想環境の少なくとも一つの要素14と少なくとも一つの球12の表示が1次元もしくは複数の次元で衝突もしくは近接しており、そこでは要素14は正確で、1次元、2次元もしくは3次元のものであり得る。
・データ処理装置2によって生成された仮想環境にいる人間のユーザ1の実環境の少なくとも一つの実対象物の表示と少なくとも一つの球12の表示が1次元もしくは複数の次元で衝突ないし近接している事。
・サブクラスター群のひとつないし複数の重心11の位置および/もしくは動き。および/もしくは
・少なくとも一つのサブクラスター(例えば重心11が実質的に動きを見せているもの)と関連した球12によって形成されたボリュームの位置、動きおよび/もしくは形状。
a)選択したクラスター6の重心7と主軸16を計算する。
b)図8bに示すように、選択したクラスター6の点5の、前記主軸16に対する距離を示す分布曲線20を計算する。
c)分布曲線20の変曲点21を計算する。
d)選択したクラスター6の主軸16に対する距離がD・sより小さい点5を選択する。ここでsは、選択したクラスター6の主軸16に対する変曲点21の距離であり、Dは高くて1.5、好ましくは高くて1.25の係数である。
e)胴1の前記質量中心17および主軸18を、選択した点5の重心および主軸として計算する。
・質量中心17の位置および/または動き。
・主軸18の位置、向きおよび/または動き。
・肩26の位置、向きおよび/または動き。
・頭22の位置および/または動き。
・一つないしいくつかの端部29の位置、向き、動きおよび/または形状。
・例えば視点の回転、並進運動、位置取りおよび/または方向付け、さらには見通し、範囲、色、説明などの2次元および/または3次元ナビゲーション。
・メニュー、リスト、パラメータ選択、および/または入力フィールド内のi.a.ナビゲーションを含むインターフェイス要素のナビゲーション。
・i.a.アバターコントロール、アプリケーション対象のパラメータのコントロール(例えば位置、向き、並進運動、回転運動、概観、形など)および/もしくはシステムパラメータの機能および/またはコントロールを含んだ操作。
・例えばi.a.行動命令、パラメータ変更命令および/または状態変更命令、行動命令および/またはアプリケーション対象の状態変更命令、コントロールパラメータおよび/またはその他の妥当性確証処理のような、動作誘引処理(triggering)。
・i.a.インターフェイス要素、アプリケーション対象、実環境の対象などの選択。
・例えば物理シミュレーションにおける力の入力。
・例えば音量、アプリケーション対象物の概観、アプリケーション対象物などのための出力パラメータの調整。
・例えば2次元または3次元の表示装置、拡声スピーカー、ヘッドフォン、プリンター、触覚出力装置、換気装置および/または背景の照明などのコンピュータ出力装置。
・仮想現実(virtual reality)の出力装置、例えば仮想現実の目玉、携帯型表示装置、Cave(登録商標)のようなマルチ表示装置、Reality Center(登録商標)のような大きな表示装置、立体スクリーン、力を返す装置、3次元表示装置、スモークマシン、および/またはスプリンクラーなど。
・家庭での自動化装置、例えば窓シャッター制御装置、暖房制御装置、および/または調光制御装置など。
・家庭の娯楽用装置、例えばテレビおよび/または音楽システム。
・携帯型装置、例えば携帯音楽および/またはビデオプレーヤー、位置検索システム、PDA(personal digital assistants)、携帯コンピュータ、および/または携帯電話など。
・バルブや踏み車など、データ処理装置2に接続可能な他の装置。
Claims (22)
- a)3次元の画像システム(3)を用いて3次元の画像データをキャプチャするステップであって、該画像データは複数の点(5)を示し、各点は少なくとも3次元空間の座標の集合を有するステップと、
b)少なくとも前記点(5)のいくつかをクラスター(6)の集合に分類するステップと、
c)位置および大きさなどの第1のパラメータの集合に従って、前記画像システム(3)の範囲に配置された興味の対象物(1)に対応するクラスター(6)を選択するステップと
を含むボリューム認識方法であって、
さらに前記方法は、
d)選択された前記クラスター(6)の少なくともいくつかの点(5)を、3次元空間における前記点(5)の位置を含んだ第2のパラメータの集合に従ってサブクラスターの集合に分類するステップであって、各サブクラスターは3次元空間における重心(11)を有するステップと、
e)大きな塊(12)を前記サブクラスターの少なくともいくつかにそれぞれ関連付けるステップであって、該大きな塊(12)は該サブクラスターの重心(11)に固定されるステップと
をさらに含むことを特徴とする前記方法。 - 請求項1に記載のボリューム認識方法であって、K−means法のアルゴリズムが、前記選択されたクラスター(6)の前記点を既定のK個の数のサブクラスターに分類するために用いられる前記方法。
- 請求項1または2に記載のボリューム認識方法であって、サブクラスターに関連した前記大きな塊(12)は球であり、好ましくは中心が前記サブクラスターの重心(11)にある前記方法。
- 請求項1から3のいずれか1項記載のボリューム認識方法であって、前記点(5)をクラスター(6)に分類するステップは、次のステップ:
a)最初の点(5)を含む最初のクラスター(6)を作成するステップと、
b)各他の点(5)について次の処理:
i)3次元空間において重心(7)が前記他の点に最も近いクラスター(6)を発見する処理;
ii)前記他の点(5)と前記最も近いクラスターの重心(7)間の3次元空間における絶対距離が既定の閾値θより大きく、かつクラスター(6)の数がまだ既定の最大値qより小さい場合、前記他の点を含む追加のクラスター(6)を作成する処理、もしくは
iii)前記絶対距離が前記既定の閾値θよりも大きくない、またはクラスターの数が既に前記既定の最大値qに達している場合、前記他の点(5)を重心(7)が前記他の点(5)に最も近いクラスター(6)に追加する処理
を実行するステップと
を含む方法に従って実行される前記方法。 - 請求項4に記載のボリューム認識方法であって、前記点(5)をクラスター(6)に分類するステップは、さらに、
a)前記クラスター(6)のうちの二つが接続されているかを判定するステップと、
b)接続されているクラスター(6)を合体させるステップと
を含む前記方法。 - 請求項5に記載のボリューム認識方法であって、前記クラスター(6)のうちの二つが接続されているかを判定するステップが、
a)前記二つのクラスター(6)の重心(7)を繋ぐ軸(8)に沿った該二つのクラスター(6)の各々の点(5)の投影の分布に関する標準偏差を計算するステップと、
b)既定の係数S、例えば2、が掛けられた前期標準偏差の和が前記二つのクラスター(6)の重心(7)間の絶対距離より大きいかどうかをチェックするステップとを含む前記方法。 - 請求項1から6のいずれか1項に記載のボリューム認識方法であって、前記画像システム(3)はTOF3次元カメラ、ステレオカメラ、3次元空間の異なる位置に配置された複数のカメラ、またはLIDAR、ソナーもしくはレーダーシステムを含む前記方法。
- 請求項1から7のいずれか1項に記載のボリューム認識方法であって、前記画像データは、少なくとも各点(5)の奥行き成分、天頂成分、および方位角成分を含み、さらにこれら点(5)のうちの少なくともいくつかの奥行き成分、天頂成分、および方位角成分を3次元の直交座標系に変換するステップを含む前記方法。
- 請求項1から8のいずれか1項記載のボリューム認識方法であって、前記興味の対象物(1)は、少なくとも人間の体の部分であり、好ましくは立っている体の部分である前記方法。
- 請求項9に記載のボリューム認識方法であって、さらに、
前記体の胴(19)の近似された質量中心(17)と主軸(18)を計算するステップ
を含む前記方法。 - 請求項10に記載のボリューム認識方法であって、前記胴(19)の近似された質量中心(17)と主軸(18)は、以下に示す、
a)前記選択されたクラスター(6)の重心(7)と主軸(16)を計算するステップ、
b)前記選択されたクラスター(6)の点(5)の、該選択されたクラスター(6)の前記主軸(16)に対する距離の分布曲線(20)を計算するステップ、
c)前記分布曲線(20)における変曲点(21)を計算するステップ、
d)前記選択されたクラスター(6)の前記主軸(16)に対する距離がD・sより小さい点(5)を選択するステップであって、sは前記変曲点(21)から前記選択されたクラスター(6)の前記主軸(16)への距離であり、Dは高くて1.25、好ましくは高くて1の係数であるステップ、
e)前記胴(19)の前記質量中心(17)および主軸(18)を、前記選択された点(5)の重心および主軸として計算するステップ
を実行することにより計算される前記方法。 - 請求項10または11に記載のボリューム認識方法であって、前記胴(19)の質量中心(17)および/または主軸(18)の位置および/または前記胴(1)の主軸(18)の向きに従ってデータ処理システム(2)に信号が送られる前記方法。
- 請求項10から12のいずれか1項に記載のボリューム認識方法であって、さらに、前記体の高さを測定するステップを含む前記方法。
- 請求項13に記載のボリューム認識方法であって、前記体の高さは、前記胴(19)の主軸に対して既定の距離より近い前記選択されたクラスター(6)内の点(5)の高さを計算し、前記点の高さを、好ましくは中央値でフィルタリングし、フィルタリング後の前記点の高さの最大値を選択することにより測定される前記方法。
- 請求項14に記載のボリューム認識方法であって、前記体の高さの測定は、前記胴(19)の主軸(18)が実質的に垂直であるなど、条件が合っている場合のみ妥当であると見做される前記方法。
- 請求項1から15のいずれか1項に記載のボリューム認識方法であって、前記サブクラスターの集合に関わる前記大きな塊(12)は、データ処理システム(2)によって生成される仮想環境で表示される前記方法。
- 請求項16に記載のボリューム認識方法であって、前記仮想環境の要素(14)の集合と相互作用できるように、前記サブクラスターに関わる大きな塊(12)の表示と、該仮想環境の要素(14)の集合との衝突および/または近接のチェックを行う前記方法。
- 請求項1から17のいずれか1項に記載のボリューム認識方法であって、前記サブクラスター間の繋がり(28)の集合は、例えば該サブクラスターの重心(11)間の絶対距離、該サブクラスター間の点(5)の存在などの判定基準により形成される前記方法。
- 請求項18に記載のボリューム認識方法であって、前記興味の対象物(1)の端部(29)の集合は、前記繋がり(28)に従って識別される前記方法。
- 請求項19に記載のボリューム認識方法であって、少なくとも前記端部(29)のうちの一つが、既定のパターン、例えば人間の体のパターンに従ってラベル付けされる前記方法。
- 請求項19または20に記載のボリューム認識方法であって、前記端部(29)のうちの少なくとも一つの絶対および/または相対位置ならびに/もしくは動きに従ってデータ処理システム(2)に信号が送られる前記方法。
- 複数の点(5)を表示する3次元の画像データをキャプチャするための画像システム(3)を含むボリューム認識システムであって、
各点(5)は少なくとも3次元空間の座標の集合を有し、前記点(5)の少なくともいくつかは前記画像システム(3)の範囲内に配置された興味の対象物(1)に対応し、
データ処理システム(2)が、前記画像システム(3)に接続され、かつ該画像システム(3)と協働して、請求項1から21に記載のボリューム認識方法を実行するためにプログラムされている前記システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2007/053895 WO2008128568A1 (en) | 2007-04-20 | 2007-04-20 | Volume recognition method and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010525432A true JP2010525432A (ja) | 2010-07-22 |
JP5255623B2 JP5255623B2 (ja) | 2013-08-07 |
Family
ID=38862109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010503361A Active JP5255623B2 (ja) | 2007-04-20 | 2007-04-20 | ボリューム認識方法およびシステム |
Country Status (13)
Country | Link |
---|---|
US (1) | US8175374B2 (ja) |
EP (1) | EP2095296B1 (ja) |
JP (1) | JP5255623B2 (ja) |
KR (1) | KR101184170B1 (ja) |
CN (1) | CN101715581B (ja) |
AU (1) | AU2007351713B2 (ja) |
BR (1) | BRPI0721562A2 (ja) |
CA (1) | CA2684523A1 (ja) |
HK (1) | HK1143229A1 (ja) |
IL (1) | IL201499A (ja) |
MX (1) | MX2009011251A (ja) |
NO (1) | NO20093390L (ja) |
WO (1) | WO2008128568A1 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012137989A (ja) * | 2010-12-27 | 2012-07-19 | Sony Computer Entertainment Inc | ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法 |
JP2014501415A (ja) * | 2011-01-05 | 2014-01-20 | ソフトキネティック ソフトウェア | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
JP2014524016A (ja) * | 2011-06-24 | 2014-09-18 | ソフトキネティック ソフトウェア | 深度測定の品質の向上 |
JP2015109111A (ja) * | 2015-03-09 | 2015-06-11 | 株式会社ソニー・コンピュータエンタテインメント | ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法 |
JP2015212942A (ja) * | 2014-04-25 | 2015-11-26 | グーグル インコーポレイテッド | レーザー点クラウドを用いる物体検出のための方法及びシステム |
JP2017004158A (ja) * | 2015-06-08 | 2017-01-05 | シャープ株式会社 | 自律走行装置 |
JP2017530433A (ja) * | 2014-10-02 | 2017-10-12 | グーグル インコーポレイテッド | 見通し外レーダ型ジェスチャ認識 |
WO2022091706A1 (ja) * | 2020-10-28 | 2022-05-05 | 京セラ株式会社 | 電子機器、電子機器の制御方法、及びプログラム |
Families Citing this family (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5085573B2 (ja) * | 2009-01-13 | 2012-11-28 | 新日本製鐵株式会社 | 欠陥検査方法および欠陥検査装置 |
US8295546B2 (en) | 2009-01-30 | 2012-10-23 | Microsoft Corporation | Pose tracking pipeline |
US8517834B2 (en) * | 2009-02-17 | 2013-08-27 | Softkinetic Studios Sa | Computer videogame system with body position detector that requires user to assume various body positions |
US8565479B2 (en) | 2009-08-13 | 2013-10-22 | Primesense Ltd. | Extraction of skeletons from 3D maps |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
KR101651568B1 (ko) * | 2009-10-27 | 2016-09-06 | 삼성전자주식회사 | 3차원 공간 인터페이스 장치 및 방법 |
GB2475104A (en) * | 2009-11-09 | 2011-05-11 | Alpha Vision Design Res Ltd | Detecting movement of 3D objects using a TOF camera |
CN102103696A (zh) * | 2009-12-21 | 2011-06-22 | 鸿富锦精密工业(深圳)有限公司 | 人脸辨识系统、方法及具有该系统的身份识别装置 |
EP2339507B1 (en) | 2009-12-28 | 2013-07-17 | Softkinetic Software | Head detection and localisation method |
EP2357608B1 (en) | 2009-12-28 | 2012-11-21 | Softkinetic Software | Tracking method |
EP2357605B1 (en) | 2009-12-28 | 2013-01-16 | Softkinetic Software | Stabilisation method and computer system |
US8787663B2 (en) | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
US8396252B2 (en) * | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US8594425B2 (en) | 2010-05-31 | 2013-11-26 | Primesense Ltd. | Analysis of three-dimensional scenes |
US8933886B2 (en) | 2010-06-17 | 2015-01-13 | Panasonic Intellectual Property Corporation Of America | Instruction input device, instruction input method, program, recording medium, and integrated circuit |
US8296151B2 (en) | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US8928659B2 (en) * | 2010-06-23 | 2015-01-06 | Microsoft Corporation | Telepresence systems with viewer perspective adjustment |
US8381976B2 (en) * | 2010-08-10 | 2013-02-26 | Honeywell International Inc. | System and method for object metrology |
US8582867B2 (en) | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
US9304592B2 (en) | 2010-11-12 | 2016-04-05 | At&T Intellectual Property I, L.P. | Electronic device control based on gestures |
US8570320B2 (en) * | 2011-01-31 | 2013-10-29 | Microsoft Corporation | Using a three-dimensional environment model in gameplay |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
MY163422A (en) * | 2011-03-02 | 2017-09-15 | Genscape Intangible Holding Inc | Method and system for determining an amount of a liquid energy commodity in storage in an underground cavern |
DE102011102038A1 (de) | 2011-05-19 | 2012-11-22 | Rwe Effizienz Gmbh | Heimautomatisierungssteuerungssystem sowie Verfahren zum Steuern einer Einrichtung eines Heimautomatisierungssteuerungssystems |
US8885882B1 (en) | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9002099B2 (en) | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
US8913821B1 (en) * | 2011-09-26 | 2014-12-16 | Google Inc. | Preconditioner for solving linear equations for reconstructing three-dimensional structure of a scene |
US8811938B2 (en) | 2011-12-16 | 2014-08-19 | Microsoft Corporation | Providing a user interface experience based on inferred vehicle state |
KR101901588B1 (ko) * | 2012-01-02 | 2018-09-28 | 삼성전자주식회사 | 물체 인식 방법과, 물체 인식을 위한 기술자 생성 방법, 물체 인식을 위한 기술자 생성 장치 |
US9047507B2 (en) | 2012-05-02 | 2015-06-02 | Apple Inc. | Upper-body skeleton extraction from depth maps |
EP2674913B1 (en) * | 2012-06-14 | 2014-07-23 | Softkinetic Software | Three-dimensional object modelling fitting & tracking. |
KR101387892B1 (ko) * | 2012-06-29 | 2014-04-21 | 인텔렉추얼디스커버리 주식회사 | 온도 정보를 사용한 동작 인식 장치 및 방법 |
CN103577789B (zh) * | 2012-07-26 | 2018-02-13 | 中兴通讯股份有限公司 | 检测方法和装置 |
JP5934070B2 (ja) * | 2012-09-26 | 2016-06-15 | 富士フイルム株式会社 | 仮想内視鏡画像生成装置およびその作動方法並びにプログラム |
US9019267B2 (en) | 2012-10-30 | 2015-04-28 | Apple Inc. | Depth mapping with enhanced resolution |
DE102012110460A1 (de) * | 2012-10-31 | 2014-04-30 | Audi Ag | Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9709990B2 (en) * | 2012-12-21 | 2017-07-18 | Toyota Jidosha Kabushiki Kaisha | Autonomous navigation through obstacles |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US20140267611A1 (en) * | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Runtime engine for analyzing user motion in 3d images |
US9633483B1 (en) * | 2014-03-27 | 2017-04-25 | Hrl Laboratories, Llc | System for filtering, segmenting and recognizing objects in unconstrained environments |
DE102014107683B3 (de) * | 2014-06-02 | 2015-10-01 | Insta Elektro Gmbh | Verfahren zum Betreiben einer Gebäudeinstallation mit einem Situationswächter sowie Gebäudeinstallation mit einem Situationswächter |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US9858720B2 (en) | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
US9865089B2 (en) | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US9904055B2 (en) | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US10311638B2 (en) * | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US9921660B2 (en) | 2014-08-07 | 2018-03-20 | Google Llc | Radar-based gesture recognition |
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
US9588625B2 (en) | 2014-08-15 | 2017-03-07 | Google Inc. | Interactive textiles |
US10268321B2 (en) | 2014-08-15 | 2019-04-23 | Google Llc | Interactive textiles within hard objects |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US20160178991A1 (en) * | 2014-12-22 | 2016-06-23 | Google Inc. | Smart illumination time of flight system and method |
US10207185B2 (en) * | 2015-03-07 | 2019-02-19 | Sony Interactive Entertainment America Llc | Using connection quality history to optimize user experience |
US10016162B1 (en) | 2015-03-23 | 2018-07-10 | Google Llc | In-ear health monitoring |
US10282177B2 (en) * | 2015-03-24 | 2019-05-07 | Vmware, Inc. | Application user interface overlays for application lifecycle management |
US9983747B2 (en) | 2015-03-26 | 2018-05-29 | Google Llc | Two-layer interactive textiles |
JP6427279B2 (ja) | 2015-04-30 | 2018-11-21 | グーグル エルエルシー | ジェスチャの追跡および認識のための、rfに基づいた微細動作追跡 |
CN107430443B (zh) | 2015-04-30 | 2020-07-10 | 谷歌有限责任公司 | 基于宽场雷达的手势识别 |
KR102011992B1 (ko) | 2015-04-30 | 2019-08-19 | 구글 엘엘씨 | 타입-애그노스틱 rf 신호 표현들 |
CN104778718B (zh) * | 2015-05-07 | 2017-11-21 | 西安电子科技大学 | 基于3d模型的单幅图像卡车体积测量方法 |
US9693592B2 (en) | 2015-05-27 | 2017-07-04 | Google Inc. | Attaching electronic components to interactive textiles |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US10074191B1 (en) | 2015-07-05 | 2018-09-11 | Cognex Corporation | System and method for determination of object volume with multiple three-dimensional sensors |
US9922244B2 (en) * | 2015-09-03 | 2018-03-20 | Gestigon Gmbh | Fast and robust identification of extremities of an object within a scene |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
EP3371855A1 (en) | 2015-11-04 | 2018-09-12 | Google LLC | Connectors for connecting electronics embedded in garments to external devices |
US10043279B1 (en) | 2015-12-07 | 2018-08-07 | Apple Inc. | Robust detection and classification of body parts in a depth map |
US10902560B2 (en) | 2016-03-31 | 2021-01-26 | Sony Depthsensing Solutions Sa/Nv | Or relating to filters |
US10262222B2 (en) | 2016-04-13 | 2019-04-16 | Sick Inc. | Method and system for measuring dimensions of a target object |
US10492302B2 (en) | 2016-05-03 | 2019-11-26 | Google Llc | Connecting an electronic component to an interactive textile |
US10175781B2 (en) | 2016-05-16 | 2019-01-08 | Google Llc | Interactive object with multiple electronics modules |
CN107583276B (zh) * | 2016-07-07 | 2020-01-24 | 苏州狗尾草智能科技有限公司 | 游戏参数控制方法、装置及游戏控制方法、装置 |
US10366278B2 (en) | 2016-09-20 | 2019-07-30 | Apple Inc. | Curvature-based face detector |
US10579150B2 (en) | 2016-12-05 | 2020-03-03 | Google Llc | Concurrent detection of absolute distance and relative movement for sensing action gestures |
US10677905B2 (en) * | 2017-09-26 | 2020-06-09 | Infineon Technologies Ag | System and method for occupancy detection using a millimeter-wave radar sensor |
US10842412B2 (en) | 2017-10-31 | 2020-11-24 | Pixa4 Llc | Systems and methods to estimate human length |
CN108280443A (zh) * | 2018-02-23 | 2018-07-13 | 深圳市唯特视科技有限公司 | 一种基于深特征提取异步融合网络的动作识别方法 |
US11967149B2 (en) * | 2021-06-09 | 2024-04-23 | International Business Machines Corporation | Increasing capabilities of wearable devices using big data and video feed analysis |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05282459A (ja) * | 1992-04-02 | 1993-10-29 | Mitsubishi Electric Corp | カラー画像の限定色表示装置 |
JP2001160077A (ja) * | 1999-12-02 | 2001-06-12 | Osaka Gas Co Ltd | 行動シミュレーション装置及び空間評価装置 |
JP2002056392A (ja) * | 2000-05-11 | 2002-02-20 | Toshiba Corp | 物体領域情報記述方法、物体領域情報生成装置、及び物体領域情報記述プログラム |
US20020050924A1 (en) * | 2000-06-15 | 2002-05-02 | Naveed Mahbub | Occupant sensor |
US6771818B1 (en) * | 2000-04-04 | 2004-08-03 | Microsoft Corporation | System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions |
JP2005216160A (ja) * | 2004-01-30 | 2005-08-11 | Secom Co Ltd | 画像生成装置、侵入者監視装置及び画像生成方法 |
JP2006099749A (ja) * | 2004-08-31 | 2006-04-13 | Matsushita Electric Works Ltd | ジェスチャースイッチ |
US20060239558A1 (en) * | 2005-02-08 | 2006-10-26 | Canesta, Inc. | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
AU1916100A (en) | 1998-11-17 | 2000-06-05 | Holoplex, Inc. | Stereo-vision for gesture recognition |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
JP2002352200A (ja) | 2001-05-29 | 2002-12-06 | Dainippon Printing Co Ltd | Rfidタグ交信用の手袋 |
US7274800B2 (en) | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US20040193313A1 (en) | 2003-01-14 | 2004-09-30 | Benoit Cornet | Kiosk system |
KR100553712B1 (ko) | 2004-05-04 | 2006-02-24 | 삼성전자주식회사 | 리세스 채널을 가지는 선택 트랜지스터가 구비된 비휘발성메모리 소자 및 그 제조방법 |
US7646902B2 (en) * | 2005-02-08 | 2010-01-12 | Regents Of The University Of Michigan | Computerized detection of breast cancer on digital tomosynthesis mammograms |
US7317836B2 (en) | 2005-03-17 | 2008-01-08 | Honda Motor Co., Ltd. | Pose estimation based on critical point analysis |
-
2007
- 2007-04-20 JP JP2010503361A patent/JP5255623B2/ja active Active
- 2007-04-20 EP EP07728354.7A patent/EP2095296B1/en active Active
- 2007-04-20 MX MX2009011251A patent/MX2009011251A/es active IP Right Grant
- 2007-04-20 AU AU2007351713A patent/AU2007351713B2/en not_active Ceased
- 2007-04-20 CN CN200780053047.2A patent/CN101715581B/zh active Active
- 2007-04-20 BR BRPI0721562-2A patent/BRPI0721562A2/pt not_active Application Discontinuation
- 2007-04-20 US US12/596,604 patent/US8175374B2/en active Active
- 2007-04-20 KR KR1020097024261A patent/KR101184170B1/ko active IP Right Grant
- 2007-04-20 WO PCT/EP2007/053895 patent/WO2008128568A1/en active Application Filing
- 2007-04-20 CA CA002684523A patent/CA2684523A1/en not_active Abandoned
-
2009
- 2009-10-13 IL IL201499A patent/IL201499A/en active IP Right Grant
- 2009-11-20 NO NO20093390A patent/NO20093390L/no not_active Application Discontinuation
-
2010
- 2010-10-07 HK HK10109572.5A patent/HK1143229A1/xx not_active IP Right Cessation
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05282459A (ja) * | 1992-04-02 | 1993-10-29 | Mitsubishi Electric Corp | カラー画像の限定色表示装置 |
JP2001160077A (ja) * | 1999-12-02 | 2001-06-12 | Osaka Gas Co Ltd | 行動シミュレーション装置及び空間評価装置 |
US6771818B1 (en) * | 2000-04-04 | 2004-08-03 | Microsoft Corporation | System and process for identifying and locating people or objects in a scene by selectively clustering three-dimensional regions |
JP2002056392A (ja) * | 2000-05-11 | 2002-02-20 | Toshiba Corp | 物体領域情報記述方法、物体領域情報生成装置、及び物体領域情報記述プログラム |
US20020050924A1 (en) * | 2000-06-15 | 2002-05-02 | Naveed Mahbub | Occupant sensor |
JP2005216160A (ja) * | 2004-01-30 | 2005-08-11 | Secom Co Ltd | 画像生成装置、侵入者監視装置及び画像生成方法 |
JP2006099749A (ja) * | 2004-08-31 | 2006-04-13 | Matsushita Electric Works Ltd | ジェスチャースイッチ |
US20060239558A1 (en) * | 2005-02-08 | 2006-10-26 | Canesta, Inc. | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
Non-Patent Citations (2)
Title |
---|
CSNG199700279009; 苗村 健 Takeshi Naemura: '3次元画像情報技術' 画像情報工学と放送技術 第50巻 第9号 THE JOURNAL OF THE INSTITUTE OF TELEVISION ENGINEERS OF JA 第50巻第9号, 19960920, 1335〜1344ページ, 社団法人テレビジョン学会 THE INSTITUTE OF TELEVIS * |
JPN6011046492; 苗村 健 Takeshi Naemura: '3次元画像情報技術' 画像情報工学と放送技術 第50巻 第9号 THE JOURNAL OF THE INSTITUTE OF TELEVISION ENGINEERS OF JA 第50巻第9号, 19960920, 1335〜1344ページ, 社団法人テレビジョン学会 THE INSTITUTE OF TELEVIS * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012137989A (ja) * | 2010-12-27 | 2012-07-19 | Sony Computer Entertainment Inc | ジェスチャ操作入力処理装置およびジェスチャ操作入力処理方法 |
US9465443B2 (en) | 2010-12-27 | 2016-10-11 | Sony Corporation | Gesture operation input processing apparatus and gesture operation input processing method |
JP2014501415A (ja) * | 2011-01-05 | 2014-01-20 | ソフトキネティック ソフトウェア | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
JP2014225288A (ja) * | 2011-01-05 | 2014-12-04 | ソフトキネティック ソフトウェア | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
US9081419B2 (en) | 2011-01-05 | 2015-07-14 | Softkinetic Software | Natural gesture based user interface methods and systems |
KR101554082B1 (ko) * | 2011-01-05 | 2015-09-17 | 소프트키네틱 소프트웨어 | 자연스러운 제스처 기반 사용자 인터페이스 방법 및 시스템 |
JP2014524016A (ja) * | 2011-06-24 | 2014-09-18 | ソフトキネティック ソフトウェア | 深度測定の品質の向上 |
JP2015212942A (ja) * | 2014-04-25 | 2015-11-26 | グーグル インコーポレイテッド | レーザー点クラウドを用いる物体検出のための方法及びシステム |
JP2017530433A (ja) * | 2014-10-02 | 2017-10-12 | グーグル インコーポレイテッド | 見通し外レーダ型ジェスチャ認識 |
JP2015109111A (ja) * | 2015-03-09 | 2015-06-11 | 株式会社ソニー・コンピュータエンタテインメント | ジェスチャ操作入力処理装置、3次元ディスプレイ装置およびジェスチャ操作入力処理方法 |
JP2017004158A (ja) * | 2015-06-08 | 2017-01-05 | シャープ株式会社 | 自律走行装置 |
WO2022091706A1 (ja) * | 2020-10-28 | 2022-05-05 | 京セラ株式会社 | 電子機器、電子機器の制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
MX2009011251A (es) | 2009-12-14 |
IL201499A0 (en) | 2010-05-31 |
EP2095296B1 (en) | 2014-01-01 |
CN101715581A (zh) | 2010-05-26 |
AU2007351713A1 (en) | 2008-10-30 |
US20100208035A1 (en) | 2010-08-19 |
KR20100017212A (ko) | 2010-02-16 |
US8175374B2 (en) | 2012-05-08 |
KR101184170B1 (ko) | 2012-09-19 |
AU2007351713B2 (en) | 2011-11-17 |
CN101715581B (zh) | 2014-07-23 |
NO20093390L (no) | 2010-01-20 |
IL201499A (en) | 2013-12-31 |
CA2684523A1 (en) | 2008-10-30 |
BRPI0721562A2 (pt) | 2013-01-22 |
EP2095296A1 (en) | 2009-09-02 |
JP5255623B2 (ja) | 2013-08-07 |
HK1143229A1 (en) | 2010-12-24 |
WO2008128568A1 (en) | 2008-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5255623B2 (ja) | ボリューム認識方法およびシステム | |
US8223147B1 (en) | Method and system for vision-based interaction in a virtual environment | |
KR101141087B1 (ko) | 제스처-기반 사용자 상호작용의 프로세싱 | |
US8630457B2 (en) | Problem states for pose tracking pipeline | |
US9344707B2 (en) | Probabilistic and constraint based articulated model fitting | |
CN102222431A (zh) | 基于机器的手语翻译器 | |
KR20110139694A (ko) | 제스쳐 인식 방법 및 시스템 | |
TWI413018B (zh) | 體積識別方法及系統 | |
JP6817770B2 (ja) | 画像処理装置、画像処理方法 | |
JP2015053025A (ja) | 動的画像分析システム及び動的画像分析方法 | |
Schlattmann | Real-time markerless tracking the human hands for 3D interaction. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110902 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20111202 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20111209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120508 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120808 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120815 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120823 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5255623 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160426 Year of fee payment: 3 |
|
S631 | Written request for registration of reclamation of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313631 |
|
S633 | Written request for registration of reclamation of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313633 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |