JP7427467B2 - 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム - Google Patents
画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム Download PDFInfo
- Publication number
- JP7427467B2 JP7427467B2 JP2020023374A JP2020023374A JP7427467B2 JP 7427467 B2 JP7427467 B2 JP 7427467B2 JP 2020023374 A JP2020023374 A JP 2020023374A JP 2020023374 A JP2020023374 A JP 2020023374A JP 7427467 B2 JP7427467 B2 JP 7427467B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual viewpoint
- image
- viewpoint image
- model
- corrected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—Three-dimensional [3D] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three-dimensional [3D] modelling for computer graphics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—Two-dimensional [2D] image generation
- G06T11/10—Texturing; Colouring; Generation of textures or colours
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—Three-dimensional [3D] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional [3D] objects
- G06V20/647—Three-dimensional [3D] objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
本実施形態では、精度が低い形状推定結果に起因して発生するノイズ(以下、本明細書ではゼリーノイズという)を含んだ仮想視点画像を修復(修正または補正と呼んでもよい)する処理を行う例を述べる。修復する処理には、学習済みモデル(ニューラルネットワーク(以下、NNという))が用いられる。具体的には、学習済みモデルに対してゼリーノイズを含んだ仮想視点画像を入力することで、ゼリーノイズ部分が除去(改善)された仮想視点画像が学習済みモデルから出力される。
図1は、本実施形態における画像処理システムの構成の例を示す図である。画像処理システムは、画像生成装置1と複数の撮像装置2と形状推定装置3と表示装置4とを有する。図1では、1台の撮像装置2を示し、他の撮像装置は、図示を省略している。
図2は、精度が低い形状推定が原因で、上記のゼリーノイズが発生する場合の例を説明する図である。図2を用いてゼリーノイズを説明する。図2(a)は、所定の撮像装置2がオブジェクトを撮像して取得した撮像画像201を示す。撮像画像201には、オブジェクト202、203、204が表れている。図2(b)は、オブジェクト202、203、204を上面から見たときのオブジェクトの例を示している。図2(b)のオブジェクト212、213、214は、図2(a)のオブジェクト202、203、204にそれぞれ対応している。
図1に戻り説明を続ける。仮想視点画像修復部13は、仮想視点画像生成部12によって生成されたゼリーノイズを含み得る仮想視点画像を修復する。なお、本実施形態では、ニューラルネットワークを学習させた学習済みモデルを生成し、その学習済みモデルによって仮想視点画像の修復を行うことを想定している。以下、仮想視点画像修復部13の説明を行う。仮想視点画像修復部13は、教師データ生成部131、修復学習部132、および修復部133を有する。
図4は、画像生成装置1のハードウェア構成の例を示す図である。画像生成装置1は、CPU411、ROM412、RAM413、補助記憶装置414、表示部415、操作部416、通信I/F417、GPU418、及びバス419を有する。CPU411は、ROM412またはRAM413に格納されているコンピュータプログラムおよびデータを用いて画像生成装置1の全体を制御することで、図1に示す画像生成装置1の各機能を実現する。なお、画像生成装置1がCPU411とは異なる1又は複数の専用のハードウェアを有し、CPU411による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM412は、変更を必要としないプログラムなどを格納する。RAM413は、補助記憶装置414から供給されるプログラムおよびデータ、並びに、通信I/F417を介して外部から供給されるデータなどを一時記憶する。補助記憶装置414は、例えばハードディスクドライブ等で構成され、画像データまたは音声データなどの種々のデータを記憶する。GPU418は、データをより多く並列処理することで効率的な演算を行うことができるので、ディープラーニングのような学習モデルを用いて複数回に渡り学習を行う場合にはGPU418で処理を行うことが有効である。そこで本実施形態では、修復学習部132による処理には、CPU411に加えてGPU418を用いる。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPU411とGPU418とが協働して演算を行うことで学習を行う。なお、修復学習部132の処理は、CPU411またはGPU418の一方のみにより演算が行われても良い。また、修復部133も修復学習部132と同様にGPU418を用いても良い。
図5は、本実施形態の画像生成装置1において行われる処理の例を示すフローチャートである。図5に示す処理は、CPU411またはGPU418が、ROM412または補助記憶装置414に記憶されているプログラムを実行することで行われる。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する(以下、本明細書において同様である)。
本実施形態では、仮想視点画像中のどの領域にゼリーノイズがあるかを検出し、検出した領域を修復する処理を、検出用および修復用の二つのニューラルネットワークに分けて学習させる。即ち、検出用の第一モデルと、修復用の第二モデルとをそれぞれ学習させる。そして、その学習済みモデルを組み合わせることで、修復結果をニューラルネットワークに推論させる例を説明する。
図7は、本実施形態における画像処理システムの構成を示す図である。本実施形態の画像処理システムは、第1実施形態で説明した画像生成装置1の代わりに、画像生成装置7が備えられている。図7に示すように、画像生成装置7は、撮像装置2、形状推定装置3、表示装置4に、デイジーチェーン方式で、または、所定のネットワークを介して接続されている。撮像装置2、形状推定装置3、および表示装置4の構成は第1実施形態と同じである。以下、第1実施形態と同じ構成については説明を省略する。
図11および図12は、本実施形態の画像生成装置7が行う処理の例を示すフローチャートである。図11および図12に示すフローチャートを用いて、本実施形態の画像生成装置7の処理を説明する。なお、図5のフローチャートと同じ番号が付与されたステップは、第1実施形態で説明したステップと同じであるため、説明を省略する。
上述した各実施形態では、画像生成装置において学習部と修復部または検出部(推論部という)との両方が備えられている例を説明したが、学習部と推論部とが別々の画像生成装置に備えられていてもよい。例えば、学習部を備えている第一の画像生成装置で学習が行われてよい。そして学習された学習済みモデルが、推論部を備える第二の画像生成装置に送られ、第二の画像生成装置において推論処理が行われてもよい。
2 撮像装置
3 形状推定装置
12 仮想視点画像生成部
13 仮想視点画像修復部
Claims (13)
- 複数の撮像装置により複数の視点からオブジェクトを撮像することにより得られた複数の撮像画像と、前記複数の撮像画像に基づいて生成される前記オブジェクトの3次元形状データと、に基づいて生成される仮想視点画像を取得する取得手段と、
仮想視点画像を入力し、当該仮想視点画像における補正対象の領域を示す情報を出力する学習済みモデルである第1モデルと、前記第1モデルに入力される前記仮想視点画像および前記第1モデルから出力される補正対象の領域を示す情報を入力し、入力された前記仮想視点画像の前記補正対象の領域を補正した補正済仮想視点画像を出力する学習済みモデルである第2モデルとに、前記取得手段により取得された仮想視点画像をそれぞれ入力することにより、補正済仮想視点画像を生成する生成手段と、を有し、
前記生成手段において前記第1モデルおよび前記第2モデルに入力される前記仮想視点画像は、1つの仮想視点のみに対応する仮想視点画像であることを特徴とする画像処理装置。 - 前記補正済仮想視点画像は、前記仮想視点画像に対し、前記3次元形状データの精度に起因して発生するノイズを除去するように補正された仮想視点画像であることを特徴とする請求項1に記載の画像処理装置。
- 前記補正済仮想視点画像は、前記仮想視点画像の前記補正対象の領域を補正することで生成された仮想視点画像であることを特徴とする請求項1または2に記載の画像処理装置。
- 前記第1モデルは、所定の位置および姿勢に対応する視点の仮想視点画像を入力データとし、当該仮想視点画像と前記所定の位置および姿勢に対応する画像との差分を示す差分画像を正解データとした教師データに基づいて学習された学習済みモデルであることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
- 前記第1モデルは、所定の位置および姿勢に対応する視点の仮想視点画像を入力データとし、前記所定の位置および姿勢に対応する画像が示す画像内のオブジェクトを構成する3次元形状データの可視性に基づく画像を正解データとした教師データに基づいて学習された学習済みモデルであることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
- 前記第1モデルは、前記可視性に基づく画像をユーザが修正した修正画像を、前記画像の代わりに前記正解データとして用いることを特徴とする請求項5に記載の画像処理装置。
- 前記第1モデルは、所定の位置および姿勢に対応する視点の仮想視点画像を入力データとし、前記所定の位置および姿勢に対応する画像内においてユーザが補正対象の領域を設定したマスク画像を正解データとした教師データに基づいて学習された学習済みモデルであることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
- 前記第2モデルは、所定の第二位置および姿勢に対応する視点の仮想視点画像と、当該仮想視点画像に対応する補正対象の領域とを入力データとし、前記第二位置および姿勢に対応する画像を正解データとした教師データに基づいて学習された学習済みモデルであることを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
- 前記第二位置および姿勢は、所定の撮像装置の位置および姿勢であり、前記第二位置および姿勢に対応する前記画像は、当該所定の撮像装置の撮像により取得された撮像画像であることを特徴とする請求項8に記載の画像処理装置。
- 複数の撮像装置により複数の視点からオブジェクトを撮像することにより得られた複数の撮像画像と、前記複数の撮像画像に基づいて生成される前記オブジェクトの3次元形状データと、に基づいて生成される仮想視点に対応した仮想視点画像を取得する取得手段と、
仮想視点画像を入力し、当該仮想視点画像における補正対象の領域を示す情報を出力する学習済みモデルである第1モデルと、前記第1モデルに入力される前記仮想視点画像および前記第1モデルから出力される補正対象の領域を示す情報を入力し、入力された前記仮想視点画像の前記補正対象の領域を補正した補正済仮想視点画像を出力する学習済みモデルである第2モデルとに、前記取得手段により取得された前記仮想視点画像をそれぞれ入力することにより、前記仮想視点画像を補正する補正手段と、
を有し、
前記補正手段において前記第1モデルおよび前記第2モデルに入力される前記仮想視点画像は、1つの仮想視点のみに対応する仮想視点画像であることすることを特徴とする画像処理装置。 - 複数の撮像装置により複数の視点からオブジェクトを撮像することにより得られた複数の撮像画像と、前記複数の撮像画像に基づいて生成される前記オブジェクトの3次元形状データと、に基づいて生成される仮想視点画像を取得する取得工程と、
仮想視点画像を入力し、当該仮想視点画像における補正対象の領域を示す情報を出力する学習済みモデルである第1モデルと、前記第1モデルに入力される前記仮想視点画像および前記第1モデルから出力される補正対象の領域を示す情報を入力し、入力された前記仮想視点画像の前記補正対象の領域を補正した補正済仮想視点画像を出力する学習済みモデルである第2モデルとに、前記取得工程により取得された仮想視点画像をそれぞれ入力することにより、補正済仮想視点画像を生成する生成工程と、
を有し、
前記生成工程において前記第1モデルおよび前記第2モデルに入力される前記仮想視点画像は、1つの仮想視点のみに対応する仮想視点画像であることを特徴とする画像処理方法。 - 複数の撮像装置により複数の視点からオブジェクトを撮像することにより得られた複数の撮像画像と、前記複数の撮像画像に基づいて生成される前記オブジェクトの3次元形状データと、に基づいて生成される仮想視点に対応した仮想視点画像を取得する取得工程と、
仮想視点画像を入力し、当該仮想視点画像における補正対象の領域を示す情報を出力する学習済みモデルである第1モデルと、前記第1モデルに入力される前記仮想視点画像および前記第1モデルから出力される補正対象の領域を示す情報を入力し、入力された前記仮想視点画像の前記補正対象の領域を補正した補正済仮想視点画像を出力する学習済みモデルである第2モデルとに、前記取得工程により取得された前記仮想視点画像をそれぞれ入力することにより、前記仮想視点画像を補正する補正工程と、
を有し、
前記補正工程において前記第1モデルおよび前記第2モデルに入力される前記仮想視点画像は、1つの仮想視点のみに対応する仮想視点画像であることすることを特徴とする画像処理方法。 - コンピュータを、請求項1乃至10のいずれか一項に記載の画像処理装置として機能させるためのプログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020023374A JP7427467B2 (ja) | 2020-02-14 | 2020-02-14 | 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム |
| PCT/JP2021/003988 WO2021161878A1 (ja) | 2020-02-14 | 2021-02-03 | 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム |
| EP21752863.7A EP4089631A4 (en) | 2020-02-14 | 2021-02-03 | Image processing device, image processing method, method of generating learned model, and program |
| US17/819,095 US20220383589A1 (en) | 2020-02-14 | 2022-08-11 | Image processing apparatus, image processing method, method for generating learned model, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020023374A JP7427467B2 (ja) | 2020-02-14 | 2020-02-14 | 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2021128592A JP2021128592A (ja) | 2021-09-02 |
| JP2021128592A5 JP2021128592A5 (ja) | 2023-03-09 |
| JP7427467B2 true JP7427467B2 (ja) | 2024-02-05 |
Family
ID=77291821
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020023374A Active JP7427467B2 (ja) | 2020-02-14 | 2020-02-14 | 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20220383589A1 (ja) |
| EP (1) | EP4089631A4 (ja) |
| JP (1) | JP7427467B2 (ja) |
| WO (1) | WO2021161878A1 (ja) |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113793255A (zh) * | 2021-09-09 | 2021-12-14 | 百度在线网络技术(北京)有限公司 | 用于图像处理的方法、装置、设备、存储介质和程序产品 |
| JP7600162B2 (ja) * | 2022-01-31 | 2024-12-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| US20260017874A1 (en) * | 2022-08-04 | 2026-01-15 | Sony Group Corporation | Information processing system, operation method of information processing system, and program |
| WO2024176317A1 (ja) * | 2023-02-20 | 2024-08-29 | 日本電信電話株式会社 | 調整装置、調整方法、および調整プログラム |
| CN116301476A (zh) * | 2023-03-03 | 2023-06-23 | 马上消费金融股份有限公司 | 图像显示方法、装置、设备及存储介质 |
| CN116152122B (zh) * | 2023-04-21 | 2023-08-25 | 荣耀终端有限公司 | 图像处理方法和电子设备 |
| EP4712020A1 (en) | 2024-09-11 | 2026-03-18 | FUJIFILM Business Innovation Corp. | Information processing system, program and method |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018026064A (ja) | 2016-08-12 | 2018-02-15 | キヤノン株式会社 | 画像処理装置、画像処理方法、システム |
| JP2018081672A (ja) | 2016-11-14 | 2018-05-24 | 株式会社リコー | 深層畳み込みニューラルネットワークを用いる新ビュー合成 |
| JP2019191915A (ja) | 2018-04-25 | 2019-10-31 | キヤノン株式会社 | 映像生成装置、映像生成装置の制御方法及びプログラム |
| JP2020005202A (ja) | 2018-06-29 | 2020-01-09 | 日本放送協会 | 映像処理装置 |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6425780B1 (ja) | 2017-09-22 | 2018-11-21 | キヤノン株式会社 | 画像処理システム、画像処理装置、画像処理方法及びプログラム |
| JP7172266B2 (ja) | 2018-08-06 | 2022-11-16 | 株式会社タダノ | アウトリガ装置、及びアウトリガ装置を備えた作業車 |
-
2020
- 2020-02-14 JP JP2020023374A patent/JP7427467B2/ja active Active
-
2021
- 2021-02-03 WO PCT/JP2021/003988 patent/WO2021161878A1/ja not_active Ceased
- 2021-02-03 EP EP21752863.7A patent/EP4089631A4/en not_active Withdrawn
-
2022
- 2022-08-11 US US17/819,095 patent/US20220383589A1/en not_active Abandoned
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018026064A (ja) | 2016-08-12 | 2018-02-15 | キヤノン株式会社 | 画像処理装置、画像処理方法、システム |
| JP2018081672A (ja) | 2016-11-14 | 2018-05-24 | 株式会社リコー | 深層畳み込みニューラルネットワークを用いる新ビュー合成 |
| JP2019191915A (ja) | 2018-04-25 | 2019-10-31 | キヤノン株式会社 | 映像生成装置、映像生成装置の制御方法及びプログラム |
| JP2020005202A (ja) | 2018-06-29 | 2020-01-09 | 日本放送協会 | 映像処理装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP4089631A4 (en) | 2024-02-28 |
| US20220383589A1 (en) | 2022-12-01 |
| EP4089631A1 (en) | 2022-11-16 |
| WO2021161878A1 (ja) | 2021-08-19 |
| JP2021128592A (ja) | 2021-09-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7427467B2 (ja) | 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム | |
| CN110033475B (zh) | 一种高分辨率纹理生成的航拍图运动物体检测与消除方法 | |
| JP7116262B2 (ja) | 画像深度推定方法および装置、電子機器、ならびに記憶媒体 | |
| CN115334233B (zh) | 滑动变焦效果的产生方法和系统 | |
| US20120069018A1 (en) | Ar process apparatus, ar process method and storage medium | |
| US11321960B2 (en) | Deep learning-based three-dimensional facial reconstruction system | |
| JP2019128641A (ja) | 画像処理装置、画像処理方法及びプログラム | |
| CN120431274B (zh) | 一种融合深度估计与双视角视频的三维场景合成方法 | |
| JP2002236909A (ja) | 画像データ処理方法およびモデリング装置 | |
| JP2005063041A (ja) | 3次元モデリング装置、方法、及びプログラム | |
| CN112422848A (zh) | 一种基于深度图和彩色图的视频拼接方法 | |
| JP2022038176A (ja) | 制御装置、制御方法およびプログラム | |
| JP7787752B2 (ja) | 形状推定装置、処理方法、およびプログラム | |
| CN113763544B (zh) | 图像确定方法、装置、电子设备和计算机可读存储介质 | |
| US11715218B2 (en) | Information processing apparatus and information processing method | |
| JP2015197374A (ja) | 3次元形状推定装置及び3次元形状推定方法 | |
| JP2005141655A (ja) | 3次元モデリング装置及び3次元モデリング方法 | |
| JP7289746B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| JP2020035218A (ja) | 画像処理装置、方法及びプログラム | |
| CN113763545A (zh) | 图像确定方法、装置、电子设备和计算机可读存储介质 | |
| EP4542491A1 (en) | Apparatus and method for generating a depth map | |
| JP2015220662A (ja) | 画像処理装置及びその制御方法、並びにプログラム | |
| JP7429667B2 (ja) | カメラキャリブレーション装置、方法及びプログラム | |
| CN113192208B (zh) | 三维漫游方法及装置 | |
| JP2022094788A (ja) | 生成装置、生成方法、及び、プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230210 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230301 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231218 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231226 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240124 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7427467 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |