JP7289754B2 - 制御装置、制御方法、及びプログラム - Google Patents
制御装置、制御方法、及びプログラム Download PDFInfo
- Publication number
- JP7289754B2 JP7289754B2 JP2019146278A JP2019146278A JP7289754B2 JP 7289754 B2 JP7289754 B2 JP 7289754B2 JP 2019146278 A JP2019146278 A JP 2019146278A JP 2019146278 A JP2019146278 A JP 2019146278A JP 7289754 B2 JP7289754 B2 JP 7289754B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging device
- imaging
- image
- area
- marker pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000003384 imaging method Methods 0.000 claims description 283
- 239000003550 marker Substances 0.000 claims description 143
- 238000001514 detection method Methods 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 51
- 238000010586 diagram Methods 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 15
- 230000010365 information processing Effects 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/958—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
- H04N23/959—Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30221—Sports video; Sports image
- G06T2207/30228—Playing field
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Processing Or Creating Images (AREA)
Description
<第1の実施形態>
図1は、第1の実施形態の制御装置により制御される複数の撮像装置の概略的な配置例を示す図である。図1に示すように、複数の撮像装置101~110はそれぞれ異なる位置に設置され、それら撮像装置101~110は被写体等を同期撮像する。図1の例の場合、サッカースタジアムのフィールド130が撮像対象領域となされており、複数(10台)の撮像装置101~110がフィールド130を囲むように配置されている。撮像装置101~110は、それぞれオートフォーカス機能を備え、また、各々の撮影方向、レンズの焦点距離、およびフォーカス位置などの遠隔制御が可能となされている。
本実施形態の制御装置200は、撮像装置101~110をそれぞれ制御する機能と、それら撮像装置101~110が撮像した複数視点の画像を用いて任意の視点の仮想視点画像を生成する機能と、を有している。複数の撮像装置101~110によってそれぞれ撮像された画像データは、ハブ210を介して、制御装置200の仮想視点画像生成部230へ送られる。
なお、システム構成は図2に示した例に限定されるものではなく、ハブ210を介さずに、撮像装置101~110が直接、制御部220や仮想視点画像生成部230に接続されていてもよい。また、撮像装置101~110は、デイジーチェーン接続されていてもよい。
制御部220は、画像取得部321、パラメータ取得部322、コマンド送信部323、被写界深度計算部324、およびフォーカス設定部325を有する。さらに、制御部220は、領域特定部326、マーカー検出部327、マーカー登録部328、位置推定部329、関連情報入力部330、および保存部331を有する。
マーカー登録部328は、一つ以上のマーカーパターン画像、もしくはそのマーカーパターン画像の特徴量が、登録(記憶)されている。マーカー登録部328は、ハードディスクもしくは半導体メモリに、それらマーカーパターン画像もしくは特徴量の情報を保存している。マーカー登録部328に登録されるマーカーパターン画像もしくは特徴量の情報は、予め用意されていてもよいし、外部装置等から取得されてもよい。
図4は、ある絞り値とフォーカス値において、撮像装置から被写体までの距離とボケ量との関係を示した図である。撮像装置のフォーカスは、被写体位置である合焦点440に合わせられているとする。なお合焦はフォーカスと同じ意味であるとする。このとき、合焦点440から手前側(撮像装置側)に近づくほどボケ量は急激に増加し、逆に遠方側(奥側)に離れるほどボケ量は少しずつ増加する。ここで、被写界深度および人間の目の解像度などを基に、人間が目で見て分からない程度のボケ量を許容ボケ量410と定義すると、フォーカスが合っているとみなせる範囲は、合焦範囲450として表せる。合焦範囲450の前端451は合焦点440からの距離がAで、後端453は合焦点440からの距離がB+Cであるとすると、合焦範囲450の中心452は、合焦点440よりも後方になる。なお、距離A+Bは距離Cと同じである。
すなわち本実施形態の場合、ステップS1307とステップS1309で保存された撮像画像は、注視点エリア、前方エリア、および後方エリアのすべてのエリアで、撮像装置のフォーカス状態が適切であるかどうかをユーザ等が確認するために使用される。
まずステップS1401において、位置推定部329は、画像取得部321が撮像装置101~110からそれぞれ取得した画像と、関連情報入力部330が保持しているスタジアム関連情報とを取得する。そして、位置推定部329は、撮像装置101~110からの画像とスタジアム関連情報とを基に、撮像装置101~110のそれぞれとフィールド130との位置関係を推定する。
まずステップS1501において、位置推定部329は、撮像装置101~110それぞれから画像取得部321が取得した画像から、撮像装置毎に一つ以上の画像を取得する。
次にステップS1504において、位置推定部329は、撮像装置101~110の各撮像装置間の相対位置を推定する。すなわちステップS1503における自然特徴点のマッチング処理結果には誤差が含まれている可能性がある。このため、ステップS1504において、位置推定部329は、その誤差を最少化することで各撮像装置間の相対位置を求める。
その後ステップS1506において、位置推定部329は、スタジアム関連情報を基に撮像装置間の相対位置とフィールドとの紐づけを行い、撮像装置間の相対位置をスタジアムの3D座標空間に対応した絶対位置に変換する。なお位置推定部329は、撮像装置間の相対位置とフィールドとの紐づけに3D形状モデルデータを使用してもよいし、予めフィールド上に既知の3D座標値がある場合はそれを用いて紐づけしてもよい。ステップS1506の後、制御部220は、図13のステップS1304に処理を進める。
第2の実施形態では、図1に示したように撮像装置毎に注視点が異なる場合のフォーカス調整だけでなく、各撮像装置の位置および姿勢等を求めるためのキャリブレーション作業をも短時間で実現する例について説明する。
図16は、第2の実施形態の制御部1620の構成を示した図である。図16に示した制御部1620において、画像取得部321から保存部331までは前述した図2の対応した参照符号が付された各部と同等であり、それらの説明は省略する。第2の実施形態の場合、制御部1620は、キャリブレーション計算部1632をさらに有している。キャリブレーション計算部1632は、画像取得部321が図1の撮像装置101~110から取得した画像を用いてキャリブレーション計算処理を行う。
前述したような仮想視点画像を生成する場合、撮像装置101~110によって取得した画像から被写体等の3次元形状が復元されることになる。このため、撮像装置101~110のそれぞれの位置および姿勢(位置姿勢とする。)は、高い精度で求めておく必要がある。また、撮像装置101~110の撮像画像の座標系は、それら撮像装置101~110で共通の座標系に対応付けておく必要がある。そこで、第2の実施形態の制御部220は、撮像装置101~110のそれぞれの位置姿勢を高い精度で求めると共に座標系の対応付けを行うためのキャリブレーション計算処理(カメラキャリブレーション計算処理)を行う。
次にステップS1712において、画像取得部321は、撮像装置101~110で同期撮像されたことによる時刻同期が取れた各画像を取得する。そして、保存部331は、それら時刻同期が取れた各画像を、それぞれ撮像装置と対応付けて保存する。
なおこの例では、表示部1915と操作部1916が情報処理装置1900の内部に存在するものとするが、表示部1915と操作部1916との少なくとも一方が情報処理装置1900の外部に別の装置として存在していてもよい。この場合、CPU1911が、表示部1915を制御する表示制御部、及び操作部1916を制御する操作制御部として動作してもよい。
前述の各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
Claims (15)
- 撮像装置を制御する制御装置であって、
前記撮像装置を含む複数の撮像装置によって撮像される撮像対象領域内で、前記撮像装置のフォーカスを合わせる領域を特定する領域特定手段と、
前記撮像装置により取得された画像から、前記撮像対象領域内で移動する特定のマーカーパターンを検出する検出手段と、
前記撮像装置により取得された画像内で前記撮像装置のフォーカスを合わせる領域からの前記特定のマーカーパターンの検出に基づき、当該特定のマーカーパターンを使用して前記撮像装置のフォーカス調整を実施する実施手段と、
を有することを特徴とする制御装置。 - 前記フォーカス調整が実施されたときに、前記撮像装置により取得された画像と前記撮像装置の状態に関する情報とを保存する保存手段とをさらに有することを特徴とする請求項1に記載の制御装置。
- 前記フォーカス調整は、一つ以上の撮像装置を含む各グループが注視点を有するように配置された複数の前記撮像装置のそれぞれに対して実施されることを特徴とする請求項1または2に記載の制御装置。
- 前記撮像装置のフォーカスを合わせる領域は、前記撮像装置が撮像した画像と、前記撮像装置と前記撮像対象領域との間の相対的な位置関係と、に基ついて特定されることを特徴とする請求項1乃至3のいずれか1項に記載の制御装置。
- 前記撮像装置のフォーカスを合わせる領域は、前記撮像装置から被写体までの距離と前記撮像装置が有するレンズによるボケ量とから決まる合焦範囲と、前記撮像装置が撮像した画像を用いた画像の生成のために保証すべき合焦保証領域とに基づいて、特定されることを特徴とする請求項4に記載の制御装置。
- 前記特定のマーカーパターンは前記撮像対象領域のなかを移動する動体に配されており、
前記特定のマーカーパターンは、前記撮像装置が前記撮像対象領域を撮像した画像に写った前記動体の画像から検出されることを特徴とする請求項1乃至5のいずれか1項に記載の制御装置。 - 前記特定のマーカーパターンは、前記撮像装置が前記撮像対象領域を撮像した画像に写った一つ以上の前記動体のうち一つの動体の画像から検出されることを特徴とする請求項6に記載の制御装置。
- 前記撮像装置のフォーカスを合わせる領域は複数の領域を含み、
前記撮像装置のフォーカス調整は、前記撮像装置のフォーカスを合わせて撮像した画像の前記複数の領域のうちの一つの領域の画像から、前記特定のマーカーパターンが検出されたことに応じて実施されることを特徴とする請求項1乃至7のいずれか1項に記載の制御装置。 - 前記特定のマーカーパターンは、前記撮像装置の位置と方向を取得するためのキャリブレーション用のパターンを含むことを特徴とする請求項1乃至8のいずれか1項に記載の制御装置。
- 前記撮像装置が取得した画像は、当該撮像装置のフォーカスを合わせる領域内の前記特定のマーカーパターンを含むことを特徴とする請求項1乃至9のいずれか1項に記載の制御装置。
- 前記フォーカス調整は、前記複数の撮像装置のそれぞれに対して実施され、前記複数の撮像装置のそれぞれは複数の注視点のうちの一つに向けられることを特徴とする請求項1乃至10のいずれか1項に記載の制御装置。
- 前記特定のマーカーパターンを検出する前に、前記撮像装置のフォーカスを合わせる領域内の静止物体を使用して、当該撮像装置のフォーカス調整を実施する手段をさらに有することを特徴とする請求項1乃至11のいずれか1項に記載の制御装置。
- 前記保存手段は、前記撮像装置のフォーカスを合わせる領域に前記特定のマーカーパターンを含んで取得された画像と、前記撮像装置のフォーカスを合わせる別の領域に別の特定のマーカーパターンを含む別の画像とをさらに保存することを特徴とする請求項2に記載の制御装置。
- 撮像装置を制御する制御方法であって、
前記撮像装置を含む複数の撮像装置によって撮像される撮像対象領域内で、前記撮像装置のフォーカスを合わせる領域を特定する工程と、
前記撮像装置が取得した画像から、前記撮像対象領域内で移動する特定のマーカーパターンを検出する工程と、
前記撮像装置が取得した画像内で前記撮像装置のフォーカスを合わせる領域の画像からの前記特定のマーカーパターンの検出に基づき、当該特定のマーカーパターンを使用して前記撮像装置のフォーカス調整を実施する工程と、
を有することを特徴とする制御方法。 - コンピュータを、請求項1乃至13のいずれか1項に記載の制御装置が有する各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019146278A JP7289754B2 (ja) | 2019-08-08 | 2019-08-08 | 制御装置、制御方法、及びプログラム |
US16/940,810 US11483470B2 (en) | 2019-08-08 | 2020-07-28 | Control apparatus, control method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019146278A JP7289754B2 (ja) | 2019-08-08 | 2019-08-08 | 制御装置、制御方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021027544A JP2021027544A (ja) | 2021-02-22 |
JP2021027544A5 JP2021027544A5 (ja) | 2022-08-10 |
JP7289754B2 true JP7289754B2 (ja) | 2023-06-12 |
Family
ID=74499029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019146278A Active JP7289754B2 (ja) | 2019-08-08 | 2019-08-08 | 制御装置、制御方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11483470B2 (ja) |
JP (1) | JP7289754B2 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000321486A (ja) | 1999-05-17 | 2000-11-24 | Canon Inc | 焦点検出装置及び自動焦点カメラ |
US20130222427A1 (en) | 2012-02-29 | 2013-08-29 | Electronics And Telecommunications Research Institute | System and method for implementing interactive augmented reality |
JP2015099338A (ja) | 2013-11-20 | 2015-05-28 | 株式会社ニコン | 撮像装置 |
US10269141B1 (en) | 2018-06-04 | 2019-04-23 | Waymo Llc | Multistage camera calibration |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06138365A (ja) * | 1992-10-28 | 1994-05-20 | Canon Inc | 視線検出装置を有するカメラ |
JP2014215828A (ja) | 2013-04-25 | 2014-11-17 | シャープ株式会社 | 画像データ再生装置、および視点情報生成装置 |
JP6522768B2 (ja) | 2015-09-30 | 2019-05-29 | 富士フイルム株式会社 | 撮像装置および撮像方法 |
-
2019
- 2019-08-08 JP JP2019146278A patent/JP7289754B2/ja active Active
-
2020
- 2020-07-28 US US16/940,810 patent/US11483470B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000321486A (ja) | 1999-05-17 | 2000-11-24 | Canon Inc | 焦点検出装置及び自動焦点カメラ |
US20130222427A1 (en) | 2012-02-29 | 2013-08-29 | Electronics And Telecommunications Research Institute | System and method for implementing interactive augmented reality |
JP2015099338A (ja) | 2013-11-20 | 2015-05-28 | 株式会社ニコン | 撮像装置 |
US10269141B1 (en) | 2018-06-04 | 2019-04-23 | Waymo Llc | Multistage camera calibration |
Also Published As
Publication number | Publication date |
---|---|
US11483470B2 (en) | 2022-10-25 |
US20210044738A1 (en) | 2021-02-11 |
JP2021027544A (ja) | 2021-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20150116502A1 (en) | Apparatus and method for dynamically selecting multiple cameras to track target object | |
CN110022470B (zh) | 使用合成图像训练对象检测算法的方法和系统和存储介质 | |
US20210227201A1 (en) | Display control apparatus, display control method, and storage medium | |
JP2019125929A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2016004163A (ja) | 制御装置、制御方法及びプログラム | |
WO2019176713A1 (ja) | 制御装置、画像処理システム、制御方法、及びプログラム | |
KR20170031733A (ko) | 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들 | |
JP4700476B2 (ja) | 多視点映像合成装置及び多視点映像合成システム | |
JP2019083402A (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
EP3912336B1 (en) | Automatic generation of all-in-focus images with a mobile camera | |
US11847735B2 (en) | Information processing apparatus, information processing method, and recording medium | |
KR20170027266A (ko) | 영상 촬영 장치 및 그 동작 방법 | |
JP7423251B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN113870213A (zh) | 图像显示方法、装置、存储介质以及电子设备 | |
JP2020205549A (ja) | 映像処理装置、映像処理方法、及びプログラム | |
JP7289754B2 (ja) | 制御装置、制御方法、及びプログラム | |
KR100845274B1 (ko) | 관람자의 시선 방향을 고려한 전시 시스템의 인터페이스방법 및 장치 | |
TWI825982B (zh) | 用於提供視覺內容的方法、主機以及電腦可讀儲存媒體 | |
EP3599539B1 (en) | Rendering objects in virtual views | |
JP6633140B2 (ja) | 常時キャリブレーションシステム及びその方法 | |
JP7297515B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR102298047B1 (ko) | 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치 | |
JP2022182119A (ja) | 画像処理装置およびその制御方法、プログラム | |
JP2022038176A (ja) | 制御装置、制御方法およびプログラム | |
US20240013499A1 (en) | Image processing apparatus, image processing method, recording medium, and image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220801 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230502 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230531 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7289754 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |