JP7379065B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7379065B2 JP7379065B2 JP2019185352A JP2019185352A JP7379065B2 JP 7379065 B2 JP7379065 B2 JP 7379065B2 JP 2019185352 A JP2019185352 A JP 2019185352A JP 2019185352 A JP2019185352 A JP 2019185352A JP 7379065 B2 JP7379065 B2 JP 7379065B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- information
- orientation
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 41
- 238000003672 processing method Methods 0.000 title claims 3
- 238000000034 method Methods 0.000 claims description 73
- 238000000605 extraction Methods 0.000 claims description 21
- 238000010276 construction Methods 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims 1
- 239000003550 marker Substances 0.000 description 37
- 230000008569 process Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 15
- 230000000007 visual effect Effects 0.000 description 14
- 230000000717 retained effect Effects 0.000 description 8
- 238000011960 computer-aided design Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Description
<第1の実施形態>
図1は第1の実施形態に係る情報処理装置の機能構成例を示すブロック図である。
本実施形態の情報処理装置100は、画像入力部101、特徴抽出部102、指標推定部103、カメラ推定部104、対象物推定部105、特徴分類部106、モデル構築部107、モデル保持部108、および画像生成部109を有する。本実施形態では、シーンを撮影するカメラ110および表示装置111を備えたビデオシースルー型のMR(複合現実感)システムを例に挙げている。なお、本実施形態に係るMRシステムは、光学シースルー型のシステムや、ユーザーの視線に応じた表示画像を生成するアイトラッキング型のMRシステムであってもよい。
図2において、CPU201は、装置全体を制御する。RAM202は、CPU201が各部を制御しながら処理を行う時に作業領域として用いられる。ROM203は、本実施形態に係る情報処理プログラム、各種アプリケーションプログラム、およびデータなどを記憶する。CPU201は、ROM203に記憶されている情報処理プログラムをRAM202に展開して実行する。これにより、CPU201は、図1の画像入力部101、特徴抽出部102、指標推定部103、カメラ推定部104、対象物推定部105、特徴分類部106、モデル構築部107、画像生成部109、およびモデル保持部108等の各機能を実現する。また、入力I/F204は、カメラ110により撮影された画像信号を、情報処理装置100で処理可能な形式の信号として入力するインターフェイス部である。出力I/F205は、外部装置に対して、当該外部装置が処理可能な形式の信号を出力するインターフェイス部である。例えば、外部装置が表示装置111である場合、出力I/F205は、画像生成部109にて生成されたMR画像信号を、表示装置111で表示可能な信号にして出力する。
画像入力部101は、カメラ110で撮影した現実空間の画像を取得する。カメラ110は動画像を撮像および記録可能な撮像装置であり、画像入力部101は、カメラ110から動画像のフレーム毎に画像を取得する。カメラ110がステレオカメラなど、複数の撮像装置からなるカメラである場合、画像入力部101が複数の撮像装置から取得する複数の画像のフレームは同期している(撮影時刻が一致している)ものとする。
まず、カメラ推定部104は、視覚マーカーを用いてカメラの位置姿勢を推定する。指標推定部103にて世界座標系マーカー300が検出されている場合、カメラ推定部104は、その世界座標系マーカー300を基に、世界座標系におけるカメラの位置姿勢を取得する。
まず、指標推定部103にて追跡対象マーカー301が検出された場合、カメラ座標系に対する追跡対象座標系の位置姿勢が得られる(これを初期位置姿勢と呼ぶ)。そして、モデル構築部107に特徴情報が保持されていない場合、対象物推定部105は、初期位置姿勢を追跡対象座標系の位置姿勢として、対象物の位置姿勢推定処理を終了する。
まずステップS501において、特徴分類部106は、判定対象となる特徴点について、Nフレーム分の特徴情報が得られているかどうかを判定する(Nは2以上の整数)。そして、特徴分類部106は、Nフレーム分の特徴情報が得られていると判定した場合にはステップS502に処理を進める。一方、特徴情報がNフレームに満たないと判定した場合、特徴分類部106は、ステップS508に進んで特徴点は未分類と判定して分類処理を終了する。
まずステップS601において、画像入力部101は画像を取得する。すなわち画像入力部101は、カメラ110で撮影された現実空間の画像を、入力I/F204を通して取り込む。
次にステップS603において、指標推定部103は、ステップS601で画像入力部101が取得した現実空間の画像から指標を検出し、各指標の位置姿勢を推定する。
そして、ステップS608において、画像生成部109は複合現実画像を生成する。その後、図6のフローチャートの処理は終了する。
第1の実施形態における特徴分類部106では、複数のフレームにおいて特徴点303の追跡対象座標系における3次元座標が一定であることを分類の基準として説明した。しかし、画像から計測できる特徴点の3次元座標は、画像の奥行方向の誤差が生じる場合がある。そこで、特徴分類部106は、奥行方向の誤差が影響しにくい判定方法として、追跡対象座標系における3次元座標を、追跡対象座標系におけるカメラの位置姿勢を用いて画像上に投影し、特徴点の検出座標との誤差(再投影誤差)を用いる。
同様に、ステップS503において、特徴分類部106は、世界座標系における再投影誤差がNフレームに渡って予め定めた閾値以内である場合に、特徴点はその空間に属すると判定してステップS504に進んで分類処理を終了する。
第1の実施形態の場合、カメラ110は、画素の奥行きを計測可能なカメラであるとして説明した。また第1の実施形態において、画素の奥行きの情報は、カメラ座標系における特徴点の3次元座標を計算するために用いられている。また第1の実施形態において、特徴点の3次元座標の情報は、カメラ推定部104、対象物推定部105、および特徴分類部106にて用いられている。ここで、カメラ推定部104における処理は、第1の実施形態で説明した方法に限るものではなく、単眼カメラによるVisual SLAMの技術などで代替してよい。第2の実施形態では、カメラ110が、単眼カメラのように、1フレームの画像からでは画素の奥行を求められないカメラである場合の例について説明する。なお、第2の実施形態における情報処理装置100の構成は前述した図1、図2と同様であるため、それらの図示と説明は省略する。以下、第2の実施形態において第1の実施形態とは異なる構成および動作について説明する。
図7(a)に示すように、追跡対象物302上の点が特徴点701として検出された場合、特徴点701は追跡対象座標系において一定の位置にある。そのため、各フレームにおける特徴点701のレイ(カメラの光学中心から、特徴点の画像座標を通る3次元空間における光線)は1点で交差し、当該交点の座標が特徴点701の追跡対象座標系における3次元座標となる。
第2の実施形態の場合、この性質を利用することにより、特徴分類部106における図5に示したフローチャートの処理は以下のようになる。
第1の実施形態や第2の実施形態において、CGモデルを重畳表示したい対象物(追跡対象物302)は、人が手で掴んで動かされる場合がある。その場合、人の手の動きが追跡対象物302と一致するため、人の手に対して検出された特徴情報が、特徴分類部106にて、追跡対象に属する特徴情報として分類される可能性がある。これを回避するために、特徴分類部106は、画像入力部101より入力される画像のうち、人体など、追跡対象物ではないと判定される領域をマスク領域として推定し、そのマスク領域内の特徴情報は空間にも追跡対象にも属しない点と判定してもよい。なお、マスク領域の推定の具体的な方法として、各画素の色が予め登録された肌色情報と一致している場合、マスク領域とする方法がある。マスク領域の推定方法はこの例に限定されるものではない。
第1の実施形態や第2の実施形態における前述した図4(a)および図4(b)に示した特徴情報には、分類の確からしさの項目が加えられてもよい。ある特徴情報に対し、特徴分類部106にて同じ判定が繰り返されるにつれて、その分類の確からしさは上がっていくと考えられる。そのため、特徴分類部106は、その繰り返し数に基づく値を計算し、それを分類の確からしさの項目に記録する。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
Claims (12)
- 追跡対象物を含む現実空間を撮影した画像から複数の特徴情報を抽出する特徴抽出手段と、
前記現実空間を撮影した画像から前記追跡対象物に付されている指標を検出し、該指標の位置姿勢を推定する指標推定手段と、
前記指標の位置姿勢と追跡対象モデルとに基づいて、前記追跡対象物の位置姿勢を推定する対象物推定手段と、
前記現実空間を前記撮影したカメラの位置姿勢および、前記追跡対象物の位置姿勢に基づいて、前記複数の特徴情報を分類する分類手段と、
前記分類手段が前記追跡対象物に属していると判定した特徴情報を、前記追跡対象モデルに追加するモデル構築手段と、
を有することを特徴とする情報処理装置。 - 前記現実空間を撮影した前記画像は、奥行きの情報を含む画像であり、
前記複数の特徴情報は、前記現実空間の画像中の複数の特徴に関して、前記カメラの座標系で表される第一の3次元座標を含み、
前記分類手段は、
前記複数の特徴情報のうちで前記判定の対象となる特徴情報に対し、前記第一の3次元座標を、前記指標の位置姿勢を基準とする3次元座標系に投影した第二の3次元座標を算出し、
さらに、異なる時刻に撮影された1つ以上の前記現実空間の画像において前記第二の3次元座標が一定であった場合、前記判定の対象となる特徴情報は前記追跡対象物に属していると判定することを特徴とする請求項1に記載の情報処理装置。 - 前記奥行きの情報は、ステレオカメラまたはデプスカメラによる計測、もしくは、1台の可視光カメラを構成した上で機械学習された学習モデルによる奥行き推定により求められることを特徴とする請求項2に記載の情報処理装置。
- 前記複数の特徴情報は、前記現実空間の画像中の複数の特徴に関する画像座標および、前記カメラの座標系で表される第一の3次元座標を含み、
前記分類手段は、
前記複数の特徴情報のうちで前記判定の対象となる特徴情報に対し、前記第一の3次元座標を前記現実空間の画像上に投影した座標と前記画像座標との誤差である再投影誤差を算出し、
さらに、異なる時刻に撮影された1つ以上の前記現実空間の画像において前記再投影誤差が閾値以内であった場合、前記判定の対象となる特徴情報は前記追跡対象物に属していると判定することを特徴とする請求項1に記載の情報処理装置。 - 前記複数の特徴情報は、前記現実空間の画像中の複数の特徴に関する第一の光線を含み、
前記第一の光線は、前記現実空間を前記撮影したカメラの光学中心から、前記現実空間の特徴の画像座標を通る前記カメラの座標系における光線であり、
前記分類手段は、
前記複数の特徴情報のうちで前記判定の対象となる特徴情報に対し、前記第一の光線を前記指標の位置姿勢を基準とする3次元座標系に投影した第二の光線を算出し、
さらに、異なる時刻に撮影された1つ以上の前記現実空間の画像において前記第二の光線が交差した場合、前記判定の対象となる特徴情報は前記追跡対象物に属していると判定し、
前記モデル構築手段は、前記交差した点の3次元座標を前記追跡対象モデルに蓄積することを特徴とする請求項1に記載の情報処理装置。 - 前記分類手段は、前記現実空間の画像のうち、前記追跡対象物ではないと判定される領域をマスク領域として算出し、前記複数の特徴情報のうちで前記マスク領域の内の特徴は前記追跡対象物に属していると判定しないことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
- 前記分類手段は、異なる時刻に撮影された1つ以上の前記現実空間の画像において、前記第二の3次元座標が一定であると判定された画像数に基づいて、前記特徴が前記追跡対象物に属している確からしさを算出して、前記特徴情報に含めることを特徴とする請求項2または3に記載の情報処理装置。
- 前記分類手段は、異なる時刻に撮影された1つ以上の前記現実空間の画像において、前記再投影誤差が閾値以内であった画像数に基づいて、前記特徴が前記追跡対象物に属している確からしさを算出して、該確からしさに基づいて前記特徴情報に含めることを特徴とする請求項4に記載の情報処理装置。
- 前記分類手段は、異なる時刻に撮影された1つ以上の前記現実空間の画像において、前記第二の光線が同じ点で交差した画像数に基づいて、前記特徴が前記追跡対象物に属している確からしさを算出して、該確からしさに基づいて前記特徴情報に含めることを特徴とする請求項5に記載の情報処理装置。
- 前記指標推定手段は、前記追跡対象物の一部をモデル化した情報を、前記追跡対象物に設けられている前記指標として用いることを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
- 情報処理装置が実行する情報処理方法であって、
追跡対象物を含む現実空間を撮影した画像から複数の特徴情報を抽出する特徴抽出工程と、
前記現実空間を撮影した画像から前記追跡対象物に付されている指標を検出し、該指標の位置姿勢を推定する指標推定工程と、
前記指標の位置姿勢と追跡対象モデルとに基づいて、前記追跡対象物の位置姿勢を推定する対象物推定工程と、
前記現実空間を前記撮影したカメラの位置姿勢および、前記追跡対象物の位置姿勢に基づいて、前記複数の特徴情報を分類する分類工程と、
前記分類工程で前記追跡対象物に属していると判定した特徴情報を、前記追跡対象モデルに追加するモデル構築工程と、
を有することを特徴とする情報処理方法。 - コンピュータを請求項1から10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019185352A JP7379065B2 (ja) | 2019-10-08 | 2019-10-08 | 情報処理装置、情報処理方法、およびプログラム |
US17/063,550 US11823394B2 (en) | 2019-10-08 | 2020-10-05 | Information processing apparatus and method for aligning captured image and object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019185352A JP7379065B2 (ja) | 2019-10-08 | 2019-10-08 | 情報処理装置、情報処理方法、およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021060868A JP2021060868A (ja) | 2021-04-15 |
JP2021060868A5 JP2021060868A5 (ja) | 2022-10-14 |
JP7379065B2 true JP7379065B2 (ja) | 2023-11-14 |
Family
ID=75274895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019185352A Active JP7379065B2 (ja) | 2019-10-08 | 2019-10-08 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11823394B2 (ja) |
JP (1) | JP7379065B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076888A (ja) * | 2019-11-05 | 2021-05-20 | 株式会社日立製作所 | 作業認識装置 |
JP2021165968A (ja) * | 2020-04-07 | 2021-10-14 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、および記憶媒体 |
JP2022071822A (ja) * | 2020-10-28 | 2022-05-16 | オリンパス株式会社 | 画像表示方法、表示制御装置、およびプログラム |
CN113781525B (zh) * | 2021-09-13 | 2024-01-23 | 陕西铁路工程职业技术学院 | 一种基于原始cad模型的三维目标跟踪方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015153035A (ja) | 2014-02-12 | 2015-08-24 | 日本電信電話株式会社 | 被写体情報重畳装置、被写体情報重畳方法及びプログラム |
JP2019008460A (ja) | 2017-06-22 | 2019-01-17 | 株式会社東芝 | 物体検出装置、物体検出方法およびプログラム |
US20190050668A1 (en) | 2017-08-11 | 2019-02-14 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Concurrent Reconstruction of Dynamic and Static Objects |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015123774A1 (en) * | 2014-02-18 | 2015-08-27 | Sulon Technologies Inc. | System and method for augmented reality and virtual reality applications |
US10719727B2 (en) * | 2014-10-01 | 2020-07-21 | Apple Inc. | Method and system for determining at least one property related to at least part of a real environment |
-
2019
- 2019-10-08 JP JP2019185352A patent/JP7379065B2/ja active Active
-
2020
- 2020-10-05 US US17/063,550 patent/US11823394B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015153035A (ja) | 2014-02-12 | 2015-08-24 | 日本電信電話株式会社 | 被写体情報重畳装置、被写体情報重畳方法及びプログラム |
JP2019008460A (ja) | 2017-06-22 | 2019-01-17 | 株式会社東芝 | 物体検出装置、物体検出方法およびプログラム |
US20190050668A1 (en) | 2017-08-11 | 2019-02-14 | Mitsubishi Electric Research Laboratories, Inc. | Method and System for Concurrent Reconstruction of Dynamic and Static Objects |
Also Published As
Publication number | Publication date |
---|---|
US11823394B2 (en) | 2023-11-21 |
US20210104052A1 (en) | 2021-04-08 |
JP2021060868A (ja) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7379065B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10068344B2 (en) | Method and system for 3D capture based on structure from motion with simplified pose detection | |
JP2023082038A (ja) | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム | |
JP4789745B2 (ja) | 画像処理装置および方法 | |
EP1886281B1 (en) | Image processing method and image processing apparatus | |
JP7128708B2 (ja) | 機械学習用の訓練データの効率的な収集のための拡張現実を使用したシステム及び方法 | |
TWI496108B (zh) | AR image processing apparatus and method | |
WO2016029939A1 (en) | Method and system for determining at least one image feature in at least one image | |
JP2017103602A (ja) | 位置検出装置、位置検出方法及びプログラム | |
Paletta et al. | 3D attention: measurement of visual saliency using eye tracking glasses | |
WO2018075053A1 (en) | Object pose based on matching 2.5d depth information to 3d information | |
JP6744747B2 (ja) | 情報処理装置およびその制御方法 | |
JP6985897B2 (ja) | 情報処理装置およびその制御方法、プログラム | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
KR20200064947A (ko) | 광학식 위치 트래킹 시스템 기반의 위치 추적 장치 및 그 방법 | |
JP2008176509A (ja) | 情報処理装置および方法 | |
KR101193223B1 (ko) | 인체 동작의 3d 모션 구현방법 | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
KR100574227B1 (ko) | 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법 | |
JP6950644B2 (ja) | 注意対象推定装置及び注意対象推定方法 | |
JP2018195070A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Shere et al. | 3D Human Pose Estimation From Multi Person Stereo 360 Scenes. | |
KR20200076267A (ko) | 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템 | |
JP6659095B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2002218449A (ja) | 移動物体追跡装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221005 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230814 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231101 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7379065 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |