JP2023518908A - ラベル付き入力を使用してメッシュ精度を向上させる技法 - Google Patents
ラベル付き入力を使用してメッシュ精度を向上させる技法 Download PDFInfo
- Publication number
- JP2023518908A JP2023518908A JP2022559501A JP2022559501A JP2023518908A JP 2023518908 A JP2023518908 A JP 2023518908A JP 2022559501 A JP2022559501 A JP 2022559501A JP 2022559501 A JP2022559501 A JP 2022559501A JP 2023518908 A JP2023518908 A JP 2023518908A
- Authority
- JP
- Japan
- Prior art keywords
- mesh
- input data
- region
- labeled
- rigid body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 230000004044 response Effects 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims description 44
- 238000007906 compression Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 21
- 210000001508 eye Anatomy 0.000 claims description 19
- 230000006835 compression Effects 0.000 claims description 14
- 238000002372 labelling Methods 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 11
- 238000013135 deep learning Methods 0.000 claims description 5
- 210000005069 ears Anatomy 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 abstract description 12
- 238000004458 analytical method Methods 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 210000000887 face Anatomy 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000005549 size reduction Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000000087 stabilizing effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 229910000530 Gallium indium arsenide Inorganic materials 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000004927 clay Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Electromagnetism (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Abstract
Description
[001] 本願は、2020年3月30日に出願された米国仮特許出願第63/001,783号の権利を主張する。この出願をここで引用したことにより、その内容が本願にも含まれるものとする。
[002] 本願は、一般的には、自由視点ビデオの捕捉、記録、ストリーミング、および表示に関し、特に、自由視点ビデオにおける3Dモデルの生成に関する。
Claims (25)
- セマンティック・データを使用して、オブジェクトの三次元(3D)表現を改良する方法であって、
撮影エリアにおいてキャプチャされたビデオに応答して生成された入力データを受信するステップと、
前記入力データにおける領域毎に少なくとも1つのパラメータを設定するステップと、
前記少なくとも1つのパラメータと、前記入力データと関連付けられたセマンティック・データとに部分的に基づいて、3D表現を生成するステップと、
を含む、方法。 - 請求項1記載の方法であって、更に、
深層学習方法、およびブレンドシェイプ・プロセスの内少なくとも1つを使用して、前記入力データの少なくとも一部にラベルを付けるステップを含む、方法。 - 請求項1記載の方法において、前記少なくとも1つのパラメータが、メッシュ・パラメータであり、前記メッシュ・パラメータが、生成されるメッシュのメッシュ密度を含む、方法。
- 請求項3記載の方法であって、更に、
前記ラベル付けした入力データにおける領域が、顔としてラベル付けされたか否か判定するステップと、
前記入力データにおける領域が顔として判定されたとき、前記入力データにおいて顔でないと判定された領域と比較して、高いメッシュ密度で、前記領域のメッシュを生成するステップと、
を含む、方法。 - 請求項1記載の方法であって、更に、前記ラベル付けした入力データをメッシュ化するステップを含み、前記メッシュ化するステップが、更に、
1つ以上の領域に対して、それらのそれぞれのラベルに基づいて、メッシュ・プロセスを選択するステップと、
前記1つ以上の領域に作成されたメッシュを統一することによって、統一メッシュを作成するステップと、
を含む、方法。 - 請求項5記載の方法において、前記1つ以上の領域が、少なくとも目または耳としてラベル付けされる、方法。
- 請求項1記載の方法であって、更に、
メッシュを生成するためにヒューマン・ブレンドシェープ・フィッティング法を適用して、領域のメッシュを生成するステップを含む、方法。 - 請求項1記載の方法であって、更に、
前記入力データにおける領域がリジッド・ボディ・パーツとしてラベル付けされたか否か、セマンティック・データに基づいて判定するステップと、
リジッド・ボディ・パーツであると判定された各領域を追跡するステップと、
を含む、方法。 - 請求項8記載の方法において、領域において少なくとも1つのパーツを追跡するステップが、更に、
時間系列にわたって、前記リジッド・ボディ・パーツにおいて少なくとも移動、変形、または他の変化を追跡するステップを含む、方法。 - 請求項1記載の方法であって、更に、
前記ラベル付けした入力データにおける領域が、非リジッド・ボディ・パーツとしてラベル付けされたか否か、セマンティック・データに基づいて、判定するステップと、
非リジッド・ボディ・パーツであると判定された各領域を追跡するステップと、
を含む、方法。 - 請求項10記載の方法であって、更に、
メッシュ作成を改良するために、識別された各非リジッド・ボディ・パーツの少なくとも1つのプロパティを判定するステップを含む、方法。 - 請求項1記載の方法であって、更に、
少なくとも、識別した各領域の重要性に基づいて、1組の圧縮パラメータを決定するステップと、
前記1組の決定した圧縮パラメータに基づいて、前記生成したメッシュに圧縮プロセスを適用するステップと、
を含む、方法。 - 処理回路に、請求項1記載の方法を実行させるための命令が格納されている非一時的コンピュータ読み取り可能媒体。
- 撮影エリアにおいてキャプチャされたビデオに応答して生成された入力データを受信するシステムであって、
処理回路と、
メモリと、
を備え、前記メモリが命令を収容し、前記命令が前記処理回路によって実行されると、
前記システムに、
撮影エリアにおいてキャプチャされたビデオに応答して生成された入力データを受信させ、
前記入力データにおける領域毎に少なくとも1つのパラメータを設定させ、
前記少なくとも1つのパラメータと、前記入力データと関連付けられたセマンティック・データとに部分的に基づいて、3D表現を生成させる、システム。 - 請求項14記載のシステムにおいて、前記システムが、更に、
深層学習方法、およびブレンドシェイプ・プロセスの内少なくとも1つを使用して、前記入力データの少なくとも一部にラベルを付ける、
ように構成される、システム。 - 請求項14記載のシステムにおいて、前記少なくとも1つのパラメータが、メッシュ・パラメータであり、前記メッシュ・パラメータが、生成されるメッシュのメッシュ密度を含む、システム。
- 請求項16記載のシステムであって、前記システムが、更に、
前記ラベル付けした入力データにおける領域が、顔としてラベル付けされたか否か判定し、
前記入力データにおける領域が顔として判定されたとき、前記入力データにおいて顔でないと判定された領域と比較して、高いメッシュ密度で、前記領域のメッシュを生成する、
ように構成される、システム。 - 請求項14記載のシステムにおいて、前記システムが、更に、
1つ以上の領域に対して、それらのそれぞれのラベルに基づいて、メッシュ・プロセスを選択し、
前記1つ以上の領域に作成されたメッシュを統一することによって、統一メッシュを作成する、
ことによって、前記ラベル付けした入力データをメッシュ化するように構成される、システム。 - 請求項18記載のシステムにおいて、前記1つ以上の領域が、少なくとも目または耳としてラベル付けされる、システム。
- 請求項14記載のシステムにおいて、前記システムが、更に、
メッシュを生成するためにヒューマン・ブレンドシェープ・フィッティング法を適用して、領域のメッシュを生成するように構成される、システム。 - 請求項14記載のシステムにおいて、前記システムが、更に、
前記入力データにおける領域がリジッド・ボディ・パーツとしてラベル付けされたか否か、セマンティック・データに基づいて判定し、
リジッド・ボディ・パーツであると判定された各領域を追跡する、
ように構成される、システム。 - 請求項21記載のシステムにおいて、前記システムが、更に、
時間系列にわたって、前記リジッド・ボディ・パーツにおいて少なくとも移動、変形、または他の変化を追跡する、
ように構成される、システム。 - 請求項14記載のシステムにおいて、前記システムが、更に、
前記ラベル付けした入力データにおける領域が、非リジッド・ボディ・パーツとしてラベル付けされたか否か、セマンティック・データに基づいて判定し、
非リジッド・ボディ・パーツであると判定された各領域を追跡する、
ように構成される、システム。 - 請求項23記載のシステムにおいて、前記システムが、更に、
メッシュ作成を改良するために、識別された各非リジッド・ボディ・パーツの少なくとも1つのプロパティを判定する、
ように構成される、システム。 - 請求項14記載のシステムにおいて、前記システムが、更に、
少なくとも、識別した各領域の重要性に基づいて、1組の圧縮パラメータを決定し、
前記1組の決定した圧縮パラメータに基づいて、前記生成したメッシュに圧縮プロセスを適用する、
ように構成される、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063001783P | 2020-03-30 | 2020-03-30 | |
US63/001,783 | 2020-03-30 | ||
PCT/IB2021/052001 WO2021198817A1 (en) | 2020-03-30 | 2021-03-10 | Techniques for improving mesh accuracy using labeled inputs |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023518908A true JP2023518908A (ja) | 2023-05-08 |
Family
ID=77856410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022559501A Pending JP2023518908A (ja) | 2020-03-30 | 2021-03-10 | ラベル付き入力を使用してメッシュ精度を向上させる技法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11574443B2 (ja) |
EP (1) | EP4128050A1 (ja) |
JP (1) | JP2023518908A (ja) |
CA (1) | CA3184408A1 (ja) |
WO (1) | WO2021198817A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658309B (zh) * | 2021-08-25 | 2023-08-01 | 北京百度网讯科技有限公司 | 三维重建方法、装置、设备以及存储介质 |
WO2023101510A1 (ko) * | 2021-12-02 | 2023-06-08 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032741A (ja) * | 2000-07-13 | 2002-01-31 | Sony Corp | 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム提供媒体 |
JP2004288180A (ja) * | 2003-03-19 | 2004-10-14 | Mitsubishi Electric Research Laboratories Inc | 較正された画像の組からシーンの3次元モデルを構築する方法 |
JP2010522469A (ja) * | 2007-03-23 | 2010-07-01 | トムソン ライセンシング | 2d−to−3d変換のための2d画像の領域分類のシステム及び方法 |
JP2013070267A (ja) * | 2011-09-22 | 2013-04-18 | Toshiba Corp | 立体画像変換装置、立体画像出力装置および立体画像変換方法 |
JP2014191375A (ja) * | 2013-03-26 | 2014-10-06 | Mitsubishi Electric Corp | 情報表示装置 |
WO2019123729A1 (ja) * | 2017-12-19 | 2019-06-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法、およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150178988A1 (en) * | 2012-05-22 | 2015-06-25 | Telefonica, S.A. | Method and a system for generating a realistic 3d reconstruction model for an object or being |
US9378576B2 (en) | 2013-06-07 | 2016-06-28 | Faceshift Ag | Online modeling for real-time facial animation |
GB2554633B (en) * | 2016-06-24 | 2020-01-22 | Imperial College Sci Tech & Medicine | Detecting objects in video data |
US10825227B2 (en) * | 2018-04-03 | 2020-11-03 | Sri International | Artificial intelligence for generating structured descriptions of scenes |
-
2021
- 2021-03-10 WO PCT/IB2021/052001 patent/WO2021198817A1/en unknown
- 2021-03-10 EP EP21779889.1A patent/EP4128050A1/en active Pending
- 2021-03-10 JP JP2022559501A patent/JP2023518908A/ja active Pending
- 2021-03-10 US US17/197,374 patent/US11574443B2/en active Active
- 2021-03-10 CA CA3184408A patent/CA3184408A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032741A (ja) * | 2000-07-13 | 2002-01-31 | Sony Corp | 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム提供媒体 |
JP2004288180A (ja) * | 2003-03-19 | 2004-10-14 | Mitsubishi Electric Research Laboratories Inc | 較正された画像の組からシーンの3次元モデルを構築する方法 |
JP2010522469A (ja) * | 2007-03-23 | 2010-07-01 | トムソン ライセンシング | 2d−to−3d変換のための2d画像の領域分類のシステム及び方法 |
JP2013070267A (ja) * | 2011-09-22 | 2013-04-18 | Toshiba Corp | 立体画像変換装置、立体画像出力装置および立体画像変換方法 |
JP2014191375A (ja) * | 2013-03-26 | 2014-10-06 | Mitsubishi Electric Corp | 情報表示装置 |
WO2019123729A1 (ja) * | 2017-12-19 | 2019-06-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2021198817A1 (en) | 2021-10-07 |
EP4128050A1 (en) | 2023-02-08 |
US11574443B2 (en) | 2023-02-07 |
US20210304495A1 (en) | 2021-09-30 |
CA3184408A1 (en) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107851178B (zh) | 基于多个表面模型的混合三维场景重构 | |
CN112189335B (zh) | 用于低功率移动平台的cmos辅助内向外动态视觉传感器跟踪 | |
US10368047B2 (en) | Six-degree of freedom video playback of a single monoscopic 360-degree video | |
US10896072B2 (en) | Systems and methods for motion correction in synthetic images | |
KR102524422B1 (ko) | 객체 모델링 및 움직임 방법 및 장치, 그리고 기기 | |
US9826216B1 (en) | Systems and methods for compact space-time stereo three-dimensional depth sensing | |
US9456131B2 (en) | Video processing systems and methods | |
JP2021192250A (ja) | 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム | |
US20140300758A1 (en) | Video processing systems and methods | |
US20130321586A1 (en) | Cloud based free viewpoint video streaming | |
US20130335535A1 (en) | Digital 3d camera using periodic illumination | |
Li et al. | Diminished reality using appearance and 3D geometry of internet photo collections | |
WO2019031259A1 (ja) | 画像処理装置および方法 | |
US11574443B2 (en) | Techniques for improving mesh accuracy using labeled inputs | |
KR102294806B1 (ko) | 온 디바이스 얼굴 라이트필드 합성 방법 및 장치 | |
JP2016537901A (ja) | ライトフィールド処理方法 | |
US20150373320A1 (en) | Visual cognition system | |
US20230154101A1 (en) | Techniques for multi-view neural object modeling | |
CN111862278A (zh) | 一种动画获得方法、装置、电子设备及存储介质 | |
Rasmuson et al. | A low-cost, practical acquisition and rendering pipeline for real-time free-viewpoint video communication | |
Freer et al. | Novel-view synthesis of human tourist photos | |
Fechteler et al. | Articulated 3D model tracking with on-the-fly texturing | |
TW202036369A (zh) | 影像處理裝置及其方法 | |
Hasegawa et al. | Distortion-Aware Self-Supervised 360 {\deg} Depth Estimation from A Single Equirectangular Projection Image | |
Haque et al. | Gaussian-Hermite moment-based depth estimation from single still image for stereo vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221207 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230421 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230921 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240402 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240410 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240611 |