JP7269515B2 - 映像生成装置、映像生成方法、及び映像生成プログラム - Google Patents
映像生成装置、映像生成方法、及び映像生成プログラム Download PDFInfo
- Publication number
- JP7269515B2 JP7269515B2 JP2021521658A JP2021521658A JP7269515B2 JP 7269515 B2 JP7269515 B2 JP 7269515B2 JP 2021521658 A JP2021521658 A JP 2021521658A JP 2021521658 A JP2021521658 A JP 2021521658A JP 7269515 B2 JP7269515 B2 JP 7269515B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- subject
- parameter
- image
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 86
- 238000000605 extraction Methods 0.000 claims description 48
- 230000010354 integration Effects 0.000 claims description 42
- 238000001514 detection method Methods 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 14
- 230000008447 perception Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims 1
- 238000002372 labelling Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Description
図1は、本実施形態に係る映像生成装置1の機能ブロックの構成例を示す図である。当該映像生成装置1は、主として、被写体抽出部(抽出部)11と、空間位置追跡部(検出部)12と、位置情報統合部(統合部)13と、奥行表現部(生成部)14と、フィードバック部(送信部)15と、を備える。
被写体抽出部11は、カメラと、被写体抽出装置(例えば、PC;Personal Computer)と、を備えて構成される。被写体抽出部11は、所定パラメータを用いて、当該カメラで所定空間内を撮影した映像から被写体領域を抽出する。
空間位置追跡部12は、レーザー光によって物体表面上の複数の点の3次元位置を点群として計測する空間形状計測装置(例えば、LiDAR;Light Detection and Ranging)と、空間形状計測装置によって計測された点群から物体を追跡するトラッキング装置(例えば、PC;Personal Computer)と、を備えて構成される。空間形状計測装置は、被写体抽出部11のカメラに併設又は隣接設置され、当該カメラが撮影する所定空間内の被写体を物体として計測する。
位置情報統合部13は、位置情報統合装置(例えば、PC;Personal Computer)を備えて構成される。
位置情報統合部13は、画像位置情報と空間位置情報内の2次元位置情報とが互いに重なる領域の割合を基準とする手法1を用いる。また、位置情報統合部13は、人物以外のノイズの混入に対処するため、互いに重なる領域の面積を基準とする手法2を用いる。位置情報統合部13は、手法3として、設定ファイルを用いて手法1と手法2を手動で切り替えて用いてもよいし、手法1と手法2を自動で切り替えて用いてもよい。
手法1は、空間位置情報内の2次元位置情報に対して、最も重なるエリアの割合が大きな被写体領域にラベルを紐付ける手法である。
次に、手法2の動作について説明する。手法2は、空間位置情報内の2次元位置情報に対して、最も重なるエリアの面積が大きな被写体領域にラベルを紐付ける手法である。
次に、手法3の動作について説明する。手法3は、手法1と手法2のラベリング手法を切り替える手法である。通常は手法1を用いてラベリングを行い、ノイズと思われるエリアが検出された場合に手法2に切り替え、ノイズと思われる被写体領域をラベリング対象から除去する。
位置情報統合部13は、2つの候補被写体領域をノイズ領域でないとみなし、重なる領域の割合を基準にした手法1を用いてラベリングする。
位置情報統合部13は、閾値A以下の面積を持つ候補被写体領域をノイズ領域とみなし、重なる領域の面積を基準とした手法2を用いてラベリングする。また、被写体領域同士の面積差を計算し、面積差の絶対値が閾値B以上である場合に小さい面積を持つ方の被写体領域をノイズ領域とみなしてもよい。被写体領域の大きさが他の被写体領域と比べて著しい差がある場合は、ノイズである可能性が高いからである。
奥行表現部14は、奥行表現処理装置(例えば、PC;Personal Computer)と、表示装置と、を備えて構成される。当該表示装置は、例えば、参考文献1に記載のようなハーフミラーを用いた空中像表示装置である。参考文献1は、例えば、「井阪、外2名、“競技空間を取り囲んで観戦する“Kirari! for Arena””、NTT技術ジャーナル、Vol.30、No.10、2018年10月、p.21-p.24」である。
フィードバック部15は、奥行表現部14からの奥行表現映像を用いて、当該奥行表現映像内の被写体領域のブレを検出・評価し、当該評価の結果に基づき当該ブレの原因を解析する。
フィードバック部15は、例えば、奥行表現映像の隣り合うフレーム間で被写体領域の対応付けを行い、当該対応位置の変化を測定してブレ候補量とする。対応付けの方法については、例えば、既存のパターンマッチング、特徴点抽出等を用いる方法がある。その他、1つの被写体領域に対して複数の対応点が取得される場合、ブレ候補量としては、例えば、重心(平均値)を使用する方法、最大値、最小値を使用する方法がある。
フィードバック部15は、奥行表現映像内の被写体領域がブレていると判断した場合、ブレの原因に応じたフィードバック情報を生成する。例えば、以下のようなフィードバック情報の生成方法がある。
次に、映像生成装置1の映像生成方法の動作について説明する。図4は、本実施形態に係る映像生成装置1の処理フローを示す図である。
被写体抽出部11は、閾値パラメータ、エッジ量パラメータを用いて、カメラで所定空間内を撮影した映像から被写体領域を抽出する。そして、被写体抽出部11は、当該被写体領域以外を指定色C1で塗りつぶし、当該被写体領域のみをカラーで残した被写体抽出映像を生成し、当該被写体抽出映像を奥行表現部14に出力する。また、被写体抽出部11は、当該被写体領域を指定色C2で塗りつぶし、当該被写体領域以外を指定色C3で塗りつぶした画像位置情報を生成し、当該画像位置情報を位置情報統合部13とフィードバック部15にそれぞれ出力する。
空間位置追跡部12は、レーザー光によって所定空間内の物体表面上の複数の点の3次元位置を点群として計測し、ノイズ除去パラメータを用いて当該点群からノイズを除去するともに、クラスタリングパラメータを用いて当該点群をクラスタリングすることで物体を検出・追跡する。そして、空間位置追跡部12は、当該物体にラベルを付与するとともに、当該物体の3次元位置情報及び3次元形状情報を算出する。また、空間位置追跡部12は、当該物体の位置座標を変換することで、被写体抽出部11の画像座標上における物体の2次元位置情報を算出する。その後、空間位置追跡部12は、ラベル、3次元位置情報、3次元形状情報、2次元位置情報を、空間位置情報として、位置情報統合部13とフィードバック部15にそれぞれ出力する。
位置情報統合部13は、画像位置情報と空間位置情報内の2次元位置情報との重なり具合から、画像位置情報内の被写体領域と空間位置情報内のラベルとを対応付けることにより、画像位置情報内の被写体領域に対して、空間位置情報内の2次元位置情報、3次元位置情報、3次元形状情報を関連付ける。そして、位置情報統合部13は、当該関連付けを行うことで画像位置情報と空間位置情報を統合した統合位置情報を生成し、当該統合位置情報を奥行表現部14とフィードバック部15にそれぞれ出力する。
奥行表現部14は、統合位置情報と被写体抽出映像を用いて、奥行感パラメータを用いて映像の奥行度を調整可能な奥行表現映像であって、統合位置情報(画像位置情報、空間位置情報(ラベル、3次元位置情報、3次元形状情報、2次元位置情報))が関連付けられた被写体領域のみの奥行表現映像を生成し、当該奥行表現映像をフィードバック部15に出力する。
フィードバック部15は、奥行表現映像を用いて、当該奥行表現映像内の被写体領域のブレを検出・評価し、当該評価の結果に基づき当該ブレの原因を解析する。そして、フィードバック部15は、画像位置情報、空間位置情報、統合位置情報を用いて、当該ブレを低減(解消・抑制)するための方法を示すフィードバック情報を生成し、当該フィードバック情報を被写体抽出部11、空間位置追跡部12、奥行表現部14のうちいずれか1つ以上に送信する。フィードバック情報とは、例えば、閾値パラメータ、エッジ量パラメータ、ノイズ除去パラメータ、クラスタリングパラメータ、奥行感パラメータの変更後の値、又は変更後の値にするための加算値、減算値等である。
被写体抽出部11は、フィードバック部15から上記フィードバック情報を受信した場合、閾値パラメータ、エッジ量パラメータの値を変更する。空間位置追跡部12は、フィードバック部15から上記フィードバック情報を受信した場合、ノイズ除去パラメータ、クラスタリングパラメータの値を変更する。奥行表現部14は、フィードバック部15から上記フィードバック情報を受信した場合、奥行感パラメータを変更する。
本実施形態によれば、映像生成装置1において、フィードバック部15が、奥行表現映像の被写体領域に生じたブレを低減(解消・抑制)するためのフィードバック情報を生成し、当該フィードバック情報を被写体抽出部11、空間位置追跡部12、奥行表現部14のうちいずれか1つ以上に送信し、被写体抽出部11、空間位置追跡部12、奥行表現部14は、上記フィードバック情報を受信した場合、ブレを抑制する方向へパラメータを調整するので、奥行感のある映像において被写体のブレを低減できる。
本実施形態に係る映像生成装置1は、CPU、メモリ、ハードディスク、入出力インタフェース、通信インタフェース等を備えたコンピュータで実現可能である。映像生成装置1は、本実施形態で処理するデータをメモリ等の記憶部に記憶し、当該データを読み出して利用する。また、当該映像生成装置1としてコンピュータを機能させるための映像生成プログラム、当該映像生成プログラムの記憶媒体の作成も可能である。
11…被写体抽出部
12…空間位置追跡部
13…位置情報統合部
14…奥行表現部
15…フィードバック部
Claims (4)
- 閾値パラメータ及びエッジ量パラメータを用いて所定空間内の撮影映像から被写体領域を抽出する抽出部と、
物体の点に関するノイズ除去パラメータ及びクラスタリングパラメータを用いて前記所定空間内の3次元位置計測データから物体を検出し、前記物体に識別情報を付与するとともに、前記3次元位置計測データを用いて前記物体の3次元空間位置を算出する検出部と、
前記被写体領域と前記物体の識別情報とを対応付けることにより、前記被写体領域に対して前記3次元空間位置を関連付ける統合部と、
奥行感パラメータを用いて映像の奥行度を調整可能であり、前記3次元空間位置が関連付けられた前記被写体領域のみの奥行表現映像を生成する生成部と、
前記奥行表現映像の前記被写体領域に生じたブレの低減方法を示す情報を前記抽出部、前記検出部、前記生成部のうちいずれか1つ以上に送信する送信部と、を備え、
前記抽出部は、
前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記閾値パラメータ又は前記エッジ量パラメータの値を変更し、
前記検出部は、
前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記ノイズ除去パラメータ又は前記クラスタリングパラメータの値を変更し、
前記生成部は、
前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記奥行感パラメータの値を変更することを特徴とする映像生成装置。 - 前記統合部は、
前記被写体領域と前記物体の3次元空間位置を座標変換して得られた前記物体の2次元領域との重畳度に応じて、前記物体の識別情報を対応付ける被写体領域を決定することを特徴とする請求項1に記載の映像生成装置。 - 映像生成装置で行う映像生成方法において、
前記映像生成装置は、抽出部と、検出部と、統合部と、生成部と、送信部と、を備え、
前記抽出部は、閾値パラメータ及びエッジ量パラメータを用いて所定空間内の撮影映像から被写体領域を抽出する抽出ステップを行い、
前記検出部は、物体の点に関するノイズ除去パラメータ及びクラスタリングパラメータを用いて前記所定空間内の3次元位置計測データから物体を検出し、前記物体に識別情報を付与するとともに、前記3次元位置計測データを用いて前記物体の3次元空間位置を算出する検出ステップを行い、
前記統合部は、前記被写体領域と前記物体の識別情報とを対応付けることにより、前記被写体領域に対して前記3次元空間位置を関連付ける統合ステップを行い、
前記生成部は、奥行感パラメータを用いて映像の奥行度を調整可能であり、前記3次元空間位置が関連付けられた前記被写体領域のみの奥行表現映像を生成する生成ステップを行い、
前記送信部は、前記奥行表現映像の前記被写体領域に生じたブレの低減方法を示す情報を前記抽出部、前記検出部、前記生成部のうちいずれか1つ以上に送信する送信ステップを行い、
前記抽出ステップでは、
前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記閾値パラメータ又は前記エッジ量パラメータの値を変更し、
前記検出ステップでは、
前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記ノイズ除去パラメータ又は前記クラスタリングパラメータの値を変更し、
前記生成ステップでは、
前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記奥行感パラメータの値を変更することを特徴とする映像生成方法。 - 請求項3に記載の映像生成方法をコンピュータに実行させることを特徴とする映像生成プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/021344 WO2020240737A1 (ja) | 2019-05-29 | 2019-05-29 | 映像生成装置、映像生成方法、及び映像生成プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020240737A1 JPWO2020240737A1 (ja) | 2020-12-03 |
JP7269515B2 true JP7269515B2 (ja) | 2023-05-09 |
Family
ID=73553685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021521658A Active JP7269515B2 (ja) | 2019-05-29 | 2019-05-29 | 映像生成装置、映像生成方法、及び映像生成プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220224872A1 (ja) |
JP (1) | JP7269515B2 (ja) |
WO (1) | WO2020240737A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022259492A1 (ja) * | 2021-06-10 | 2022-12-15 | 日本電信電話株式会社 | 映像投影装置、映像投影方法、及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005174151A (ja) | 2003-12-12 | 2005-06-30 | Topcon Corp | 三次元画像表示装置及び方法 |
JP2007240208A (ja) | 2006-03-06 | 2007-09-20 | Toyota Central Res & Dev Lab Inc | 環境認識装置 |
JP2009042941A (ja) | 2007-08-07 | 2009-02-26 | Honda Motor Co Ltd | 対象物種別判定装置、車両、対象物種別判定方法、並びに対象物種別判定用プログラム |
JP2018067188A (ja) | 2016-10-20 | 2018-04-26 | 日本電信電話株式会社 | カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム |
JP2018097588A (ja) | 2016-12-13 | 2018-06-21 | 日本電信電話株式会社 | 3次元空間特定装置、方法、及びプログラム |
JP2018124890A (ja) | 2017-02-03 | 2018-08-09 | 日本電信電話株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8213708B2 (en) * | 2010-03-22 | 2012-07-03 | Eastman Kodak Company | Adjusting perspective for objects in stereoscopic images |
US8873852B2 (en) * | 2011-09-29 | 2014-10-28 | Mediatek Singapore Pte. Ltd | Method and apparatus for foreground object detection |
US8831285B2 (en) * | 2012-07-26 | 2014-09-09 | Hewlett-Packard Development Company, L.P. | Detecting objects with a depth sensor |
US10514256B1 (en) * | 2013-05-06 | 2019-12-24 | Amazon Technologies, Inc. | Single source multi camera vision system |
US10475186B2 (en) * | 2016-06-23 | 2019-11-12 | Intel Corportation | Segmentation of objects in videos using color and depth information |
US10565786B1 (en) * | 2016-06-30 | 2020-02-18 | Google Llc | Sensor placement interface |
US10650488B2 (en) * | 2016-08-11 | 2020-05-12 | Teknologian Tutkimuskeskus Vtt Oy | Apparatus, method, and computer program code for producing composite image |
WO2019173672A1 (en) * | 2018-03-08 | 2019-09-12 | Simile Inc. | Methods and systems for producing content in multiple reality environments |
US10650531B2 (en) * | 2018-03-16 | 2020-05-12 | Honda Motor Co., Ltd. | Lidar noise removal using image pixel clusterings |
JP7062506B2 (ja) * | 2018-05-02 | 2022-05-06 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
CN109191369B (zh) * | 2018-08-06 | 2023-05-05 | 三星电子(中国)研发中心 | 2d图片集转3d模型的方法、存储介质和装置 |
US11423570B2 (en) * | 2018-12-26 | 2022-08-23 | Intel Corporation | Technologies for fusing data from multiple sensors to improve object detection, identification, and localization |
-
2019
- 2019-05-29 JP JP2021521658A patent/JP7269515B2/ja active Active
- 2019-05-29 US US17/607,211 patent/US20220224872A1/en active Pending
- 2019-05-29 WO PCT/JP2019/021344 patent/WO2020240737A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005174151A (ja) | 2003-12-12 | 2005-06-30 | Topcon Corp | 三次元画像表示装置及び方法 |
JP2007240208A (ja) | 2006-03-06 | 2007-09-20 | Toyota Central Res & Dev Lab Inc | 環境認識装置 |
JP2009042941A (ja) | 2007-08-07 | 2009-02-26 | Honda Motor Co Ltd | 対象物種別判定装置、車両、対象物種別判定方法、並びに対象物種別判定用プログラム |
JP2018067188A (ja) | 2016-10-20 | 2018-04-26 | 日本電信電話株式会社 | カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム |
JP2018097588A (ja) | 2016-12-13 | 2018-06-21 | 日本電信電話株式会社 | 3次元空間特定装置、方法、及びプログラム |
JP2018124890A (ja) | 2017-02-03 | 2018-08-09 | 日本電信電話株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
Non-Patent Citations (1)
Title |
---|
石井 陽子,Kirari! Tracker:LiDARと深層学習エンジンを用いたリアルタイム特定人物追跡システムの検討,映像情報メディア学会2017年冬季大会講演予稿集,2017年12月13日,Vol.2017 |
Also Published As
Publication number | Publication date |
---|---|
US20220224872A1 (en) | 2022-07-14 |
JPWO2020240737A1 (ja) | 2020-12-03 |
WO2020240737A1 (ja) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10373380B2 (en) | 3-dimensional scene analysis for augmented reality operations | |
US8379969B2 (en) | Method for matching an object model to a three-dimensional point cloud | |
KR101870902B1 (ko) | 영상 처리 장치 및 영상 처리 방법 | |
EP2600309B1 (en) | Foreground subject detection | |
US20200380711A1 (en) | Method and device for joint segmentation and 3d reconstruction of a scene | |
US9019267B2 (en) | Depth mapping with enhanced resolution | |
US10043278B2 (en) | Method and apparatus for reconstructing 3D face with stereo camera | |
JP7184050B2 (ja) | 符号化装置、符号化方法、復号装置、および復号方法 | |
KR20200060194A (ko) | 차선들의 깊이값을 예측하는 방법, 3차원 차선들을 출력하는 방법 및 그 장치 | |
KR20120003232A (ko) | 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법 | |
KR20110064622A (ko) | 티오에프 카메라를 이용한 3차원 에지 추출 방법 및 장치 | |
TW202037169A (zh) | 基於視訊的點雲壓縮的區塊分段的方法及裝置 | |
JP2010044438A (ja) | 特徴抽出装置、特徴抽出方法、画像処理装置、及び、プログラム | |
KR100813168B1 (ko) | 사전 모양 정보를 이용한 디지털 영상에서의 물체를추출하기 위한 방법 및 상기 방법을 수행하는 시스템 | |
KR101125061B1 (ko) | Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법 | |
KR20060021001A (ko) | 개체인지를 이용한 Marker-less 증강현실과 복합현실 응용시스템 및 그 방법 | |
CN115880662A (zh) | 利用异类传感器的协同作用进行自主驾驶的3d目标检测方法 | |
CN103942756A (zh) | 一种深度图后处理滤波的方法 | |
JP7269515B2 (ja) | 映像生成装置、映像生成方法、及び映像生成プログラム | |
Srikakulapu et al. | Depth estimation from single image using defocus and texture cues | |
EP3723365A1 (en) | Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium | |
CN107515844B (zh) | 字体设置方法、装置及移动设备 | |
Xu et al. | Kinect-based easy 3d object reconstruction | |
JP2015033047A (ja) | 複数カメラを用いた奥行き推定装置 | |
JP7271115B2 (ja) | 画像処理装置、背景画像の生成方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7269515 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |