JP2020201863A - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2020201863A JP2020201863A JP2019110204A JP2019110204A JP2020201863A JP 2020201863 A JP2020201863 A JP 2020201863A JP 2019110204 A JP2019110204 A JP 2019110204A JP 2019110204 A JP2019110204 A JP 2019110204A JP 2020201863 A JP2020201863 A JP 2020201863A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional model
- information processing
- contact
- model
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 60
- 238000003672 processing method Methods 0.000 title claims 4
- 238000009795 derivation Methods 0.000 claims abstract description 12
- 238000004458 analytical method Methods 0.000 claims description 80
- 238000000034 method Methods 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 abstract description 44
- 238000010586 diagram Methods 0.000 description 19
- 230000005484 gravity Effects 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 8
- 210000003127 knee Anatomy 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本実施形態では、サッカースタジアムに複数のカメラを設置し、それら複数のカメラによって撮像された複数の画像データを用いて生成される三次元モデルを解析するシステムを例に挙げて説明する。また、解析結果を仮想視点画像に重畳表示する例を説明する。
図1は、本実施形態で用いられるシステムの全体構成を示す図である。システムは、複数のカメラ110、コントローラ120、サーバ130、画像生成装置140、記憶装置160、情報処理装置200、および表示装置300を有する。情報処理装置200は、モデル取得部210、接触箇所導出部220、モデル部位識別部230、および接触箇所処理部240を有する。情報処理装置200は、オブジェクトの部位の動きを解析する解析装置として機能する。なお、図1に示した構成は一例に過ぎず、図1に示した複数の装置の機能を集約した装置を有してもよい。また、例えば情報処理装置200の機能が複数の装置によって分散処理されてもよい。また、情報処理装置200と画像生成装置140とが同一の装置によって実現されてもよい。
情報処理装置200のモデル取得部210は、記憶装置160とネットワークを介して接続し、オブジェクトの三次元モデル180を取得する。接触箇所導出部220は、前景オブジェクトの三次元モデルと背景オブジェクトの三次元モデルとの間の接触箇所を導出する。モデル部位識別部230は、三次元モデル学習データ170を取得し、前景オブジェクトの三次元モデル180の部位を識別する。接触箇所処理部240は、モデル部位識別部230で識別された部位の接触箇所を解析する解析部である。接触箇所処理部240は、ネットワークを介して接続されている画像生成装置140へ解析結果を送信する。
図3は、本実施形態における情報処理装置200の処理の流れを示すフローチャートである。図3は、情報処理装置200が、接触箇所の解析対象となる所定の期間の三次元モデルを取得して解析を行い、当該期間の仮想視点画像が表示装置300に表示される一連の処理を示している。図3のフローチャートで示される一連の処理は、CPU201がROM202に記憶されているプログラムコードをRAM203に展開し実行することにより行われる。あるいはまた、図3におけるステップの一部または全部の機能をASICまたは電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。
実施形態1では、解析によってオブジェクトの歩幅を求める例を中心に説明した。本実施形態では、解析によって接触箇所の部位の向き(例えば足の向き)を求める例について説明する。また、本実施形態では、仮想視点画像に解析結果を重畳表示せず、情報処理装置200が、解析結果を表示装置300に表示する例を説明する。また、本実施形態では、情報処理装置200のモデル取得部210が取得する三次元モデルが、実施形態1と異なり、オブジェクトごとのモデルデータでない場合の処理も併せて説明する。
図8は、本実施形態のシステムの全体構成を示す図である。図8に示すシステムでは、図1に示したコントローラ120および画像生成装置140を有していない。接触箇所処理部240は、表示装置300とネットワークまたはSDIなどの映像伝送経路を介して接続し、接触箇所の向きの解析結果を画像として表示装置300に表示させる。
図9は、本実施形態における情報処理装置200の処理の流れを示すフローチャートである。図9は、情報処理装置200が、接触箇所の解析対象となる所定の期間の三次元モデルを取得して解析を行い、当該期間の解析結果が表示装置300に表示される一連の処理を示している。
実施形態1および2においては、サッカー選手の足の歩幅または足の向きを解析する例を中心に説明した。本実施形態では、競輪における選手および自転車の動きとゴールシーンとを解析する例を述べる。即ち、接触対象が、人間ではない例を説明する。
実施形態1から3においては、三次元モデル学習データ170を取得し、三次元モデルと学習データとを比較することでモデル部位を識別する例を中心に説明した。本実施形態では、学習データを用いずにモデル部位の識別を行う例を説明する。本実施形態では、ユーザが、入力デバイスを用いてモデル部位を指定するものとする。なお、モデル部位の動きを解析するには、解析対象となる所定の期間において、時系列上の代表時点でそれぞれモデル部位が特定されている必要がある。本実施形態では、ユーザは、時系列上の代表時点それぞれでモデル部位を指定する必要はなく、所定の時点でモデル部位を指定すればよいものとして説明する。
実施形態1または2では、選手と地平面との接触箇所を解析したが、他の三次元モデル間での接触を解析してもよい。例えば、ボールと肩、右肘、左肘、右手、または左手のいずれかとの接触がある場合にペナルティとみなして記憶するとともに、仮想視点画像に重畳してもよい。即ち、前景オブジェクト同士の接触箇所を解析してもよい。接触対象の三次元モデルと、被接触対象の三次元モデルとの接触箇所の解析ができればよい。また、選手同士の接触箇所を解析してもよい。この場合、選手Aおよび選手Bの部位をそれぞれ識別し、接触した部位を解析して特定する形態でもよい。他にも、歩幅および時間間隔から速度を導出して記憶し、表示してもよい。
210 モデル取得部
220 接触箇所導出部
230 モデル部位識別部
240 接触箇所処理部
Claims (18)
- 接触対象の第1のオブジェクトの三次元モデルと、被接触対象の第2のオブジェクトの三次元モデルとを含む三次元モデルを取得する取得手段と、
前記第1のオブジェクトの前記三次元モデルを部位ごとに識別する識別手段と、
前記第1のオブジェクトの三次元モデルが前記第2のオブジェクトの三次元モデルに接触する接触箇所を部位ごとに導出する導出手段と、
前記導出手段によって導出された接触箇所の解析をする解析手段と、
を有することを特徴とする情報処理装置。 - 前記取得手段は、解析対象の所定の期間に対応する前記三次元モデルを取得することを特徴とする請求項1に記載の情報処理装置。
- 前記識別手段は、前記取得手段で取得した前記第1のオブジェクトの前記三次元モデルと、部位ごとの特徴を予め学習した学習データと、を用いて部位ごとの識別を行うことを特徴とする請求項1または2に記載の情報処理装置。
- 前記識別手段は、前記第1のオブジェクトを示す画像を含むUI画面を通じて入力された指示に応じて、部位ごとの識別を行うことを特徴とする請求項1または2に記載の情報処理装置。
- 前記識別手段は、前記第1のオブジェクトの三次元モデルにおける、前記指示に対応するクラスタをトラッキングすることで、解析対象の所定の期間に対応する部位ごとの識別を行うことを特徴とする請求項4に記載の情報処理装置。
- 前記導出手段は、前記接触が発生した時刻と前記接触が発生した部位とを関連付けて記憶することを特徴とする請求項1から5のいずれか一項に記載の情報処理装置。
- 前記解析手段は、第1の時刻の接触箇所と、第2の時刻の接触箇所との間の距離を解析することを特徴とする請求項6に記載の情報処理装置。
- 前記解析手段は、前記第1のオブジェクトの第1の部位の前記第1の時刻における接触箇所と、前記第1のオブジェクトの前記第1の部位または前記第1の部位とは異なる第2の部位の前記第2の時刻における接触箇所との間の前記距離を解析することを特徴とする請求項7に記載の情報処理装置。
- 前記学習データは、前記部位ごとの特徴として、部位の向きを含み、
前記解析手段は、接触面内における前記部位の向きを導出することを特徴とする請求項3に記載の情報処理装置。 - 前記指示は、部位の向きの指定を含み、
前記解析手段は、接触面内における前記部位の向きを導出することを特徴とする請求項4または5に記載の情報処理装置。 - 前記三次元モデルに基づく仮想視点画像を生成する生成手段に前記解析手段による解析結果を出力する出力手段をさらに有し、
前記解析結果は、前記仮想視点画像に重畳されることを特徴とする請求項1から10のいずれか一項に記載の情報処理装置。 - 前記解析手段による解析結果を表示手段に出力する出力手段をさらに有することを特徴とする請求項1から10のいずれか一項に記載の情報処理装置。
- 前記出力手段は、前記第1のオブジェクトが前記第2のオブジェクトと異なるオブジェクトと接触する場合、所定の通知を出力する請求項11または12に記載の情報処理装置。
- 前記第1のオブジェクトは、前景オブジェクトであり、前記第2のオブジェクトは、背景オブジェクトであることを特徴とする請求項1から13のいずれか一項に記載の情報処理装置。
- 解析対象の所定の期間において、接触対象の第1のオブジェクトの三次元モデルが被接触対象の第2のオブジェクトの三次元モデルに接触する接触箇所を解析するためのインタフェース画面を表示手段に表示させる情報処理装置であって、
前記所定の期間における任意の時点における前記第1のオブジェクトの三次元モデルを示す画像を前記表示手段に表示させる表示制御手段と、
前記表示手段に表示されている前記三次元モデルの部位の識別の指定を受け付ける第一受付手段と、
前記表示手段に表示されている前記三次元モデルの部位の範囲の指定を受け付ける第二受付手段と、
を有することを特徴とする情報処理装置。 - 接触対象の第1のオブジェクトの三次元モデルと、被接触対象の第2のオブジェクトの三次元モデルとを含む三次元モデルを取得する取得工程と、
前記第1のオブジェクトの前記三次元モデルを部位ごとに識別する識別工程と、
前記第1のオブジェクトの三次元モデルが前記第2のオブジェクトの三次元モデルに接触する接触箇所を部位ごとに導出する導出工程と、
前記導出工程によって導出された接触箇所の解析をする解析工程と、
を有することを特徴とする情報処理方法。 - 解析対象の所定の期間において、接触対象の第1のオブジェクトの三次元モデルが被接触対象の第2のオブジェクトの三次元モデルに接触する接触箇所を解析するためのインタフェース画面を表示手段に表示させる情報処理方法であって、
前記所定の期間における任意の時点における前記第1のオブジェクトの三次元モデルを示す画像を前記表示手段に表示させる表示制御工程と、
前記表示手段に表示されている前記三次元モデルの部位の識別の指定を受け付ける第一受付工程と、
前記表示手段に表示されている前記三次元モデルの部位の範囲の指定を受け付ける第二受付工程と、
を有することを特徴とする情報処理方法。 - コンピュータを、請求項1から15のいずれか一項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110204A JP7401199B2 (ja) | 2019-06-13 | 2019-06-13 | 情報処理装置、情報処理方法、およびプログラム |
US16/896,491 US11501577B2 (en) | 2019-06-13 | 2020-06-09 | Information processing apparatus, information processing method, and storage medium for determining a contact between objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110204A JP7401199B2 (ja) | 2019-06-13 | 2019-06-13 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020201863A true JP2020201863A (ja) | 2020-12-17 |
JP7401199B2 JP7401199B2 (ja) | 2023-12-19 |
Family
ID=73742681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019110204A Active JP7401199B2 (ja) | 2019-06-13 | 2019-06-13 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11501577B2 (ja) |
JP (1) | JP7401199B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022176444A1 (ja) * | 2021-02-17 | 2022-08-25 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2023189690A1 (ja) * | 2022-03-28 | 2023-10-05 | 日本電気通信システム株式会社 | リアルタイムコミュニケーション支援システム及びその方法、携帯端末、サーバ並びにコンピュータ可読媒体 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009539155A (ja) * | 2006-06-02 | 2009-11-12 | イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ | 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム |
JP2010193458A (ja) * | 2009-02-19 | 2010-09-02 | Sony Europe Ltd | 画像処理装置、画像処理システム及び画像処理方法 |
JP2013232181A (ja) * | 2012-04-06 | 2013-11-14 | Canon Inc | 画像処理装置、画像処理方法 |
JP2014106685A (ja) * | 2012-11-27 | 2014-06-09 | Osaka Univ | 車両周辺監視装置 |
JP2019009752A (ja) * | 2017-06-20 | 2019-01-17 | 一般社団法人 日本画像認識協会 | 画像処理装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6080063A (en) * | 1997-01-06 | 2000-06-27 | Khosla; Vinod | Simulated real time game play with live event |
US6072504A (en) * | 1997-06-20 | 2000-06-06 | Lucent Technologies Inc. | Method and apparatus for tracking, storing, and synthesizing an animated version of object motion |
US10360685B2 (en) * | 2007-05-24 | 2019-07-23 | Pillar Vision Corporation | Stereoscopic image capture with performance outcome prediction in sporting environments |
US20050130725A1 (en) * | 2003-12-15 | 2005-06-16 | International Business Machines Corporation | Combined virtual and video game |
US7403202B1 (en) * | 2005-07-12 | 2008-07-22 | Electronic Arts, Inc. | Computer animation of simulated characters using combinations of motion-capture data and external force modelling or other physics models |
WO2007032819A2 (en) * | 2005-07-21 | 2007-03-22 | Regents Of The University Of Minnesota | Camera placement and virtual-scene construction |
US9370704B2 (en) * | 2006-08-21 | 2016-06-21 | Pillar Vision, Inc. | Trajectory detection and feedback system for tennis |
GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
GB2452546B (en) * | 2007-09-07 | 2012-03-21 | Sony Corp | Video processing system and method |
US8073190B2 (en) * | 2007-11-16 | 2011-12-06 | Sportvision, Inc. | 3D textured objects for virtual viewpoint animations |
US8175326B2 (en) * | 2008-02-29 | 2012-05-08 | Fred Siegel | Automated scoring system for athletics |
US8295454B2 (en) * | 2009-01-07 | 2012-10-23 | Google Inc. | Digital photo frame with dial-a-tag functionality |
ES2378708B1 (es) * | 2010-01-12 | 2013-02-25 | Foxtenn Bgreen, S.L. | Método, sistema y aparato de recogida automática y entrega de elementos esféricos de juego. |
US9401178B2 (en) * | 2010-08-26 | 2016-07-26 | Blast Motion Inc. | Event analysis system |
US8448056B2 (en) * | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
HUE028841T2 (en) * | 2012-07-04 | 2017-01-30 | Virtually Live (Switzerland) Gmbh | Process and system for 3D rendering of real-time live scenes and a computer-readable device |
JP6482498B2 (ja) | 2016-05-25 | 2019-03-13 | キヤノン株式会社 | 制御装置、制御方法、及び、プログラム |
JP7408298B2 (ja) * | 2019-06-03 | 2024-01-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
-
2019
- 2019-06-13 JP JP2019110204A patent/JP7401199B2/ja active Active
-
2020
- 2020-06-09 US US16/896,491 patent/US11501577B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009539155A (ja) * | 2006-06-02 | 2009-11-12 | イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ | 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム |
JP2010193458A (ja) * | 2009-02-19 | 2010-09-02 | Sony Europe Ltd | 画像処理装置、画像処理システム及び画像処理方法 |
JP2013232181A (ja) * | 2012-04-06 | 2013-11-14 | Canon Inc | 画像処理装置、画像処理方法 |
JP2014106685A (ja) * | 2012-11-27 | 2014-06-09 | Osaka Univ | 車両周辺監視装置 |
JP2019009752A (ja) * | 2017-06-20 | 2019-01-17 | 一般社団法人 日本画像認識協会 | 画像処理装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022176444A1 (ja) * | 2021-02-17 | 2022-08-25 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2023189690A1 (ja) * | 2022-03-28 | 2023-10-05 | 日本電気通信システム株式会社 | リアルタイムコミュニケーション支援システム及びその方法、携帯端末、サーバ並びにコンピュータ可読媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP7401199B2 (ja) | 2023-12-19 |
US11501577B2 (en) | 2022-11-15 |
US20200394394A1 (en) | 2020-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11721114B2 (en) | Method, system, and device of generating a reduced-size volumetric dataset | |
US7974443B2 (en) | Visual target tracking using model fitting and exemplar | |
US8565476B2 (en) | Visual target tracking | |
US8588465B2 (en) | Visual target tracking | |
US8577084B2 (en) | Visual target tracking | |
US8577085B2 (en) | Visual target tracking | |
JP6641163B2 (ja) | オブジェクト追跡装置及びそのプログラム | |
JP7277085B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US8565477B2 (en) | Visual target tracking | |
JP7023696B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20140045593A1 (en) | Virtual joint orientation in virtual skeleton | |
JP7401199B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2016071645A (ja) | オブジェクト3次元モデル復元方法、装置およびプログラム | |
JP7446754B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN112637665A (zh) | 增强现实场景下的展示方法、装置、电子设备及存储介质 | |
Bikos et al. | An interactive augmented reality chess game using bare-hand pinch gestures | |
JP7479793B2 (ja) | 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム | |
JP2019057070A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP6684336B1 (ja) | データ補正装置およびプログラム | |
JP2019197278A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
US20230334767A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP7458731B2 (ja) | 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム | |
US20240037843A1 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
Guo et al. | Sports Analysis and VR Viewing System Based on Player Tracking and Pose Estimation with Multimodal and Multiview Sensors | |
JP2023018253A (ja) | 画像処理装置、画像処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7401199 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |