JP7401199B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7401199B2 JP7401199B2 JP2019110204A JP2019110204A JP7401199B2 JP 7401199 B2 JP7401199 B2 JP 7401199B2 JP 2019110204 A JP2019110204 A JP 2019110204A JP 2019110204 A JP2019110204 A JP 2019110204A JP 7401199 B2 JP7401199 B2 JP 7401199B2
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- dimensional model
- contact
- dimensional
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 57
- 238000003672 processing method Methods 0.000 title claims 4
- 238000003384 imaging method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 8
- 230000002123 temporal effect Effects 0.000 claims 2
- 238000010801 machine learning Methods 0.000 claims 1
- 238000004458 analytical method Methods 0.000 description 64
- 238000000034 method Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 27
- 239000013598 vector Substances 0.000 description 12
- 230000005484 gravity Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 210000003127 knee Anatomy 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Description
本実施形態では、サッカースタジアムに複数のカメラを設置し、それら複数のカメラによって撮像された複数の画像データを用いて生成される三次元モデルを解析するシステムを例に挙げて説明する。また、解析結果を仮想視点画像に重畳表示する例を説明する。
図1は、本実施形態で用いられるシステムの全体構成を示す図である。システムは、複数のカメラ110、コントローラ120、サーバ130、画像生成装置140、記憶装置160、情報処理装置200、および表示装置300を有する。情報処理装置200は、モデル取得部210、接触箇所導出部220、モデル部位識別部230、および接触箇所処理部240を有する。情報処理装置200は、オブジェクトの部位の動きを解析する解析装置として機能する。なお、図1に示した構成は一例に過ぎず、図1に示した複数の装置の機能を集約した装置を有してもよい。また、例えば情報処理装置200の機能が複数の装置によって分散処理されてもよい。また、情報処理装置200と画像生成装置140とが同一の装置によって実現されてもよい。
情報処理装置200のモデル取得部210は、記憶装置160とネットワークを介して接続し、オブジェクトの三次元モデル180を取得する。接触箇所導出部220は、前景オブジェクトの三次元モデルと背景オブジェクトの三次元モデルとの間の接触箇所を導出する。モデル部位識別部230は、三次元モデル学習データ170を取得し、前景オブジェクトの三次元モデル180の部位を識別する。接触箇所処理部240は、モデル部位識別部230で識別された部位の接触箇所を解析する解析部である。接触箇所処理部240は、ネットワークを介して接続されている画像生成装置140へ解析結果を送信する。
図3は、本実施形態における情報処理装置200の処理の流れを示すフローチャートである。図3は、情報処理装置200が、接触箇所の解析対象となる所定の期間の三次元モデルを取得して解析を行い、当該期間の仮想視点画像が表示装置300に表示される一連の処理を示している。図3のフローチャートで示される一連の処理は、CPU201がROM202に記憶されているプログラムコードをRAM203に展開し実行することにより行われる。あるいはまた、図3におけるステップの一部または全部の機能をASICまたは電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。
実施形態1では、解析によってオブジェクトの歩幅を求める例を中心に説明した。本実施形態では、解析によって接触箇所の部位の向き(例えば足の向き)を求める例について説明する。また、本実施形態では、仮想視点画像に解析結果を重畳表示せず、情報処理装置200が、解析結果を表示装置300に表示する例を説明する。また、本実施形態では、情報処理装置200のモデル取得部210が取得する三次元モデルが、実施形態1と異なり、オブジェクトごとのモデルデータでない場合の処理も併せて説明する。
図8は、本実施形態のシステムの全体構成を示す図である。図8に示すシステムでは、図1に示したコントローラ120および画像生成装置140を有していない。接触箇所処理部240は、表示装置300とネットワークまたはSDIなどの映像伝送経路を介して接続し、接触箇所の向きの解析結果を画像として表示装置300に表示させる。
図9は、本実施形態における情報処理装置200の処理の流れを示すフローチャートである。図9は、情報処理装置200が、接触箇所の解析対象となる所定の期間の三次元モデルを取得して解析を行い、当該期間の解析結果が表示装置300に表示される一連の処理を示している。
実施形態1および2においては、サッカー選手の足の歩幅または足の向きを解析する例を中心に説明した。本実施形態では、競輪における選手および自転車の動きとゴールシーンとを解析する例を述べる。即ち、接触対象が、人間ではない例を説明する。
実施形態1から3においては、三次元モデル学習データ170を取得し、三次元モデルと学習データとを比較することでモデル部位を識別する例を中心に説明した。本実施形態では、学習データを用いずにモデル部位の識別を行う例を説明する。本実施形態では、ユーザが、入力デバイスを用いてモデル部位を指定するものとする。なお、モデル部位の動きを解析するには、解析対象となる所定の期間において、時系列上の代表時点でそれぞれモデル部位が特定されている必要がある。本実施形態では、ユーザは、時系列上の代表時点それぞれでモデル部位を指定する必要はなく、所定の時点でモデル部位を指定すればよいものとして説明する。
実施形態1または2では、選手と地平面との接触箇所を解析したが、他の三次元モデル間での接触を解析してもよい。例えば、ボールと肩、右肘、左肘、右手、または左手のいずれかとの接触がある場合にペナルティとみなして記憶するとともに、仮想視点画像に重畳してもよい。即ち、前景オブジェクト同士の接触箇所を解析してもよい。接触対象の三次元モデルと、被接触対象の三次元モデルとの接触箇所の解析ができればよい。また、選手同士の接触箇所を解析してもよい。この場合、選手Aおよび選手Bの部位をそれぞれ識別し、接触した部位を解析して特定する形態でもよい。他にも、歩幅および時間間隔から速度を導出して記憶し、表示してもよい。
210 モデル取得部
220 接触箇所導出部
230 モデル部位識別部
240 接触箇所処理部
Claims (17)
- 異なる位置に配された複数の撮像装置により撮像された第1オブジェクトの画像に基づいて、3次元空間における前記第1オブジェクトの形状を表す第1三次元モデルを取得する第1取得手段と、
前記3次元空間における前記第1オブジェクトの位置を取得する第2取得手段と、
前記3次元空間における第2オブジェクトの形状を表す第2三次元モデルを取得する第3取得手段と、
前記3次元空間における前記第2オブジェクトの位置を取得する第4取得手段と、
前記第1オブジェクトの複数の部位を識別する識別手段と、
取得された前記第1三次元モデル及び前記第2三次元モデルと、前記複数の部位の識別結果とに基づいて、前記第1オブジェクトの特定の部位と前記第2オブジェクトとの接触を判定する判定手段と、
指定された仮想視点の位置及び向きに応じた仮想視点画像を、取得された前記第1三次元モデル及び前記第2三次元モデルに基づいて生成する生成手段と、
前記接触の判定結果に応じた情報を、生成された前記仮想視点画像に重畳させて表示装置に表示出力する出力手段と、
を有することを特徴とする情報処理装置。 - 前記判定手段は、前記複数の撮像装置により撮像が行われる期間内の複数の時点にそれぞれ対応する複数の前記第1三次元モデルと、前記複数の時点にそれぞれ対応する複数の前記第2三次元モデルと、前記複数の部位の識別結果とに基づいて、前記期間内における前記第1オブジェクトの前記特定の部位と前記第2オブジェクトとの複数の接触を判定し、
前記出力手段は、判定された前記複数の接触の時間関係及び/又は位置関係に基づく情報を出力する、
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第1オブジェクトの前記特定の部位と前記第2オブジェクトとの接触の判定は、
取得された前記第1三次元モデル及び前記第2三次元モデルに基づいて前記第1オブジェクトと前記第2オブジェクトとの接触を判定することと、
前記第1オブジェクトと前記第2オブジェクトとの接触が判定された場合に、前記第1オブジェクトの前記複数の部位のうち前記第2オブジェクトに接触した部位を識別することと、
を含むことを特徴とする請求項1または2に記載の情報処理装置。 - 前記第1オブジェクトの前記特定の部位と前記第2オブジェクトとの接触の判定は、
前記第1オブジェクトの前記複数の部位のうち識別された前記特定の部位に対応する前記第1三次元モデルの部分モデルを特定することと、
前記第1三次元モデルの前記特定された部分モデルと前記第2三次元モデルとの接触を判定することと、
を含むことを特徴とする請求項1または2に記載の情報処理装置。 - 出力された前記情報は、前記接触の位置、向き、及び時刻の少なくとも何れかを示す情報を含むことを特徴とする請求項1から4のいずれか一項に記載の情報処理装置。
- 出力された前記情報は、前記特定の部位を示す情報を含むことを特徴とする請求項1から4のいずれか一項に記載の情報処理装置。
- 前記第1オブジェクトは、前記複数の撮像装置の撮像範囲内に位置する人物であり、
前記第2オブジェクトは、地面である、
ことを特徴とする請求項1から6のいずれか一項に記載の情報処理装置。 - 前記特定の部位は、前記人物の足である、ことを特徴とする請求項7に記載の情報処理装置。
- 出力された前記情報は、前記人物の歩幅を示す情報と、前記人物の接地時の足の向きを示す情報との、少なくとも何れかを含むことを特徴とする請求項8に記載の情報処理装置。
- 前記第2オブジェクトは、前記3次元空間内に設定された仮想的な平面であることを特徴とする請求項1乃至9のいずれか一項に記載の情報処理装置。
- 前記複数の部位は、各部位の特徴に関する機械学習の結果に基づいて識別されることを特徴とする請求項1から10のいずれか一項に記載の情報処理装置。
- 前記複数の部位は、UI画面を介して行われたユーザ入力に基づいて識別されることを特徴とする請求項1から10のいずれか一項に記載の情報処理装置。
- 前記接触の判定結果に応じた前記情報は、表示装置へ出力されることを特徴とする請求項1乃至10のいずれか一項に記載の情報処理装置。
- 異なる位置に配された複数の撮像装置により撮像された第1オブジェクトの画像に基づいて、3次元空間における前記第1オブジェクトの形状を表す第1三次元モデルを取得する第1取得ステップと、
前記3次元空間における前記第1オブジェクトの位置を取得する第2取得ステップと、
前記3次元空間における第2オブジェクトの形状を表す第2三次元モデルを取得する第3取得ステップと、
前記3次元空間における前記第2オブジェクトの位置を取得する第4取得ステップと、
前記第1オブジェクトの複数の部位を識別する識別ステップと、
取得された前記第1三次元モデル及び前記第2三次元モデルと、前記複数の部位の識別結果とに基づいて、前記第1オブジェクトの特定の部位と前記第2オブジェクトとの接触を判定する判定ステップと、
指定された仮想視点の位置及び向きに応じた仮想視点画像を、取得された前記第1三次元モデル及び前記第2三次元モデルに基づいて生成する生成ステップと、
前記接触の判定結果に応じた情報を、生成された前記仮想視点画像に重畳させて表示装置に表示出力する出力ステップと、
を含むことを特徴とする情報処理方法。 - 前記判定ステップでは、前記複数の撮像装置により撮像が行われる期間内の複数の時点にそれぞれ対応する複数の前記第1三次元モデルと、前記複数の時点にそれぞれ対応する複数の前記第2三次元モデルと、前記複数の部位の識別結果とに基づいて、前記期間内における前記第1オブジェクトの前記特定の部位と前記第2オブジェクトとの複数の接触が判定され、
前記出力ステップでは、判定された前記複数の接触の時間関係及び/又は位置関係に基づく情報が出力される、
ことを特徴とする請求項14に記載の情報処理方法。 - 前記生成ステップでは、指定された仮想視点の位置及び向きに応じた仮想視点画像を、取得された前記第1三次元モデル及び前記第2三次元モデルに基づいて生成し、
前記出力ステップでは、生成された前記仮想視点画像と前記接触の判定結果に応じた前記情報とが共に表示装置に表示されるように、前記仮想視点画像と前記情報とが出力される、
ことを特徴とする請求項14に記載の情報処理方法。 - コンピュータを、請求項1から13のいずれか一項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110204A JP7401199B2 (ja) | 2019-06-13 | 2019-06-13 | 情報処理装置、情報処理方法、およびプログラム |
US16/896,491 US11501577B2 (en) | 2019-06-13 | 2020-06-09 | Information processing apparatus, information processing method, and storage medium for determining a contact between objects |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019110204A JP7401199B2 (ja) | 2019-06-13 | 2019-06-13 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020201863A JP2020201863A (ja) | 2020-12-17 |
JP7401199B2 true JP7401199B2 (ja) | 2023-12-19 |
Family
ID=73742681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019110204A Active JP7401199B2 (ja) | 2019-06-13 | 2019-06-13 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11501577B2 (ja) |
JP (1) | JP7401199B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022176444A1 (ja) * | 2021-02-17 | 2022-08-25 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2023189690A1 (ja) * | 2022-03-28 | 2023-10-05 | 日本電気通信システム株式会社 | リアルタイムコミュニケーション支援システム及びその方法、携帯端末、サーバ並びにコンピュータ可読媒体 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009539155A (ja) | 2006-06-02 | 2009-11-12 | イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ | 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム |
JP2010193458A (ja) | 2009-02-19 | 2010-09-02 | Sony Europe Ltd | 画像処理装置、画像処理システム及び画像処理方法 |
JP2013232181A (ja) | 2012-04-06 | 2013-11-14 | Canon Inc | 画像処理装置、画像処理方法 |
JP2014106685A (ja) | 2012-11-27 | 2014-06-09 | Osaka Univ | 車両周辺監視装置 |
JP2019009752A (ja) | 2017-06-20 | 2019-01-17 | 一般社団法人 日本画像認識協会 | 画像処理装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6080063A (en) * | 1997-01-06 | 2000-06-27 | Khosla; Vinod | Simulated real time game play with live event |
US6072504A (en) * | 1997-06-20 | 2000-06-06 | Lucent Technologies Inc. | Method and apparatus for tracking, storing, and synthesizing an animated version of object motion |
US10360685B2 (en) * | 2007-05-24 | 2019-07-23 | Pillar Vision Corporation | Stereoscopic image capture with performance outcome prediction in sporting environments |
US20050130725A1 (en) * | 2003-12-15 | 2005-06-16 | International Business Machines Corporation | Combined virtual and video game |
US7403202B1 (en) * | 2005-07-12 | 2008-07-22 | Electronic Arts, Inc. | Computer animation of simulated characters using combinations of motion-capture data and external force modelling or other physics models |
WO2007032819A2 (en) * | 2005-07-21 | 2007-03-22 | Regents Of The University Of Minnesota | Camera placement and virtual-scene construction |
US9370704B2 (en) * | 2006-08-21 | 2016-06-21 | Pillar Vision, Inc. | Trajectory detection and feedback system for tennis |
GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
GB2452546B (en) * | 2007-09-07 | 2012-03-21 | Sony Corp | Video processing system and method |
US8073190B2 (en) * | 2007-11-16 | 2011-12-06 | Sportvision, Inc. | 3D textured objects for virtual viewpoint animations |
US8175326B2 (en) * | 2008-02-29 | 2012-05-08 | Fred Siegel | Automated scoring system for athletics |
US8295454B2 (en) * | 2009-01-07 | 2012-10-23 | Google Inc. | Digital photo frame with dial-a-tag functionality |
ES2378708B1 (es) * | 2010-01-12 | 2013-02-25 | Foxtenn Bgreen, S.L. | Método, sistema y aparato de recogida automática y entrega de elementos esféricos de juego. |
US9401178B2 (en) * | 2010-08-26 | 2016-07-26 | Blast Motion Inc. | Event analysis system |
US8448056B2 (en) * | 2010-12-17 | 2013-05-21 | Microsoft Corporation | Validation analysis of human target |
HUE028841T2 (en) * | 2012-07-04 | 2017-01-30 | Virtually Live (Switzerland) Gmbh | Process and system for 3D rendering of real-time live scenes and a computer-readable device |
JP6482498B2 (ja) | 2016-05-25 | 2019-03-13 | キヤノン株式会社 | 制御装置、制御方法、及び、プログラム |
JP7408298B2 (ja) * | 2019-06-03 | 2024-01-05 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
-
2019
- 2019-06-13 JP JP2019110204A patent/JP7401199B2/ja active Active
-
2020
- 2020-06-09 US US16/896,491 patent/US11501577B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009539155A (ja) | 2006-06-02 | 2009-11-12 | イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ | 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム |
JP2010193458A (ja) | 2009-02-19 | 2010-09-02 | Sony Europe Ltd | 画像処理装置、画像処理システム及び画像処理方法 |
JP2013232181A (ja) | 2012-04-06 | 2013-11-14 | Canon Inc | 画像処理装置、画像処理方法 |
JP2014106685A (ja) | 2012-11-27 | 2014-06-09 | Osaka Univ | 車両周辺監視装置 |
JP2019009752A (ja) | 2017-06-20 | 2019-01-17 | 一般社団法人 日本画像認識協会 | 画像処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US11501577B2 (en) | 2022-11-15 |
US20200394394A1 (en) | 2020-12-17 |
JP2020201863A (ja) | 2020-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7974443B2 (en) | Visual target tracking using model fitting and exemplar | |
US8565476B2 (en) | Visual target tracking | |
US8588465B2 (en) | Visual target tracking | |
US8577084B2 (en) | Visual target tracking | |
US8577085B2 (en) | Visual target tracking | |
US20200066028A1 (en) | Generation apparatus, system and method for generating virtual viewpoint image | |
US8565477B2 (en) | Visual target tracking | |
JP7023696B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2023087027A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20140045593A1 (en) | Virtual joint orientation in virtual skeleton | |
JP7401199B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7446754B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6775669B2 (ja) | 情報処理装置 | |
JP7479793B2 (ja) | 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム | |
JP6759375B2 (ja) | 仮想視点画像を生成するシステム、方法及びプログラム | |
JP2019057070A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
WO2018173206A1 (ja) | 情報処理装置 | |
US20240296615A1 (en) | Image processing apparatus for generating virtual viewpoint image, image processing method, and storage medium | |
JP7458731B2 (ja) | 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム | |
US20230334767A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20240037843A1 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
EP4432238A1 (en) | Image production system, image production method, and program | |
JP2024124310A (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
Guo et al. | Sports Analysis and VR Viewing System Based on Player Tracking and Pose Estimation with Multimodal and Multiview Sensors | |
JP2024098577A (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231207 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7401199 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |