JP7269515B2 - 映像生成装置、映像生成方法、及び映像生成プログラム - Google Patents

映像生成装置、映像生成方法、及び映像生成プログラム Download PDF

Info

Publication number
JP7269515B2
JP7269515B2 JP2021521658A JP2021521658A JP7269515B2 JP 7269515 B2 JP7269515 B2 JP 7269515B2 JP 2021521658 A JP2021521658 A JP 2021521658A JP 2021521658 A JP2021521658 A JP 2021521658A JP 7269515 B2 JP7269515 B2 JP 7269515B2
Authority
JP
Japan
Prior art keywords
unit
subject
parameter
image
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021521658A
Other languages
English (en)
Other versions
JPWO2020240737A1 (ja
Inventor
慈郎 長尾
喜秀 外村
浩太 日高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2020240737A1 publication Critical patent/JPWO2020240737A1/ja
Application granted granted Critical
Publication of JP7269515B2 publication Critical patent/JP7269515B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像を生成する技術に関する。
奥行感のある映像を生成するためには、入力された映像を奥行位置に応じて加工する必要がある。映像を奥行位置に応じて加工する手法としては、当該映像に対して視点変換を行う方法がある(例えば、非特許文献1)。
井阪、外2名、"2D空中像における被写体の空間位置を再現可能な視点変換手法の提案と実装"、2018年映像情報メディア学会冬季大会講演予稿集、24D-3、2018年12月
奥行感のある映像を生成する場合、まず、カメラで被写体を撮影するとともに、当該カメラに併設された空間形状計測装置で当該被写体の3次元空間位置を計測する。続いて、撮影した映像から被写体領域を抽出して被写体抽出映像を生成する。その後、当該被写体抽出映像に対して計測した3次元空間位置を関連付ける。そして、非特許文献1の方法を用いて被写体の奥行位置に応じた視点変換を行うことにより、当該被写体抽出映像及び当該被写体抽出映像の位置を調整する。これにより、奥行表現映像を生成する。
しかしながら、例えば、被写体の3次元空間位置の計測時にノイズが混入した場合、当該ノイズの影響により被写体の位置にズレが発生する可能性があるため、奥行表現映像内の被写体領域の位置が実際の位置に反してブレてしまうという課題がある。
本発明は、上記事情を鑑みてなされたものであり、奥行感のある映像において被写体のブレを改善することを目的とする。
本発明の一実施態様に係る映像生成装置は、所定パラメータを用いて所定空間内の撮影映像から被写体領域を抽出する抽出部と、所定パラメータを用いて前記所定空間内の3次元位置計測データから物体を検出し、前記物体に識別情報を付与するとともに、前記3次元位置計測データを用いて前記物体の3次元空間位置を算出する検出部と、前記被写体領域と前記物体の識別情報とを対応付けることにより、前記被写体領域に対して前記3次元空間位置を関連付ける統合部と、所定パラメータを用いて映像の奥行度を調整可能であり、前記3次元空間位置が関連付けられた前記被写体領域のみの奥行表現映像を生成する生成部と、前記奥行表現映像の前記被写体領域に生じたブレの低減方法を示す情報を前記抽出部、前記検出部、前記生成部のうちいずれか1つ以上に送信する送信部と、を備え、前記抽出部、前記検出部、及び前記生成部は、前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記所定パラメータの値を変更することを特徴とする。
本発明の一実施態様に係る映像生成方法は、映像生成装置で行う映像生成方法において、前記映像生成装置は、抽出部と、検出部と、統合部と、生成部と、送信部と、を備え、前記抽出部は、所定パラメータを用いて所定空間内の撮影映像から被写体領域を抽出する抽出ステップを行い、前記検出部は、所定パラメータを用いて前記所定空間内の3次元位置計測データから物体を検出し、前記物体に識別情報を付与するとともに、前記3次元位置計測データを用いて前記物体の3次元空間位置を算出する検出ステップを行い、前記統合部は、前記被写体領域と前記物体の識別情報とを対応付けることにより、前記被写体領域に対して前記3次元空間位置を関連付ける統合ステップを行い、前記生成部は、所定パラメータを用いて映像の奥行度を調整可能であり、前記3次元空間位置が関連付けられた前記被写体領域のみの奥行表現映像を生成する生成ステップを行い、前記送信部は、前記奥行表現映像の前記被写体領域に生じたブレの低減方法を示す情報を前記抽出部、前記検出部、前記生成部のうちいずれか1つ以上に送信する送信ステップを行い、前記抽出ステップ、前記検出ステップ、及び前記生成ステップでは、前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記所定パラメータの値を変更することを特徴とする。
本発明の一実施態様に係る映像生成プログラムは、上記映像生成方法をコンピュータに実行させることを特徴とする。
本発明によれば、奥行感のある映像において被写体のブレを低減できる。
映像生成装置の機能ブロックの構成例を示す図である。 手法1のラベリング例を示す図である。 手法2のラベリング例を示す図である。 映像生成装置の処理フローを示す図である。
上記課題で説明した被写体領域のズレの原因は、被写体の3次元空間位置の計測においては、被写体の位置、被写体の動き、計測の解像度等によってノイズの混入が不可避であるためである。
そこで、本実施形態では、映像生成装置を構成する複数の既存機能部にフィードバック部を新規導入する。奥行感のある映像のブレは、複数の既存機能部がそれぞれのパラメータを用いて個別に動作し、各既存機能部の出力が複雑に影響しあって動作して発生しており、既存機能部を単純に組み合わせるだけでは当該映像のブレを軽減することは困難である。それ故、新規導入するフィードバック部において、奥行表現映像内の被写体のブレを評価し、各既存機能部に当該ブレの低減方法をフィードバックして、各既存機能部で用いる各パラメータを調整させる。これにより、個々の既存機能部の単純改良では実現困難な協調動作を実現でき、3次元空間位置の計測時にノイズが混入した場合であっても、奥行感のある映像をブレを少なく表示できる。
以下、本発明を実施する一実施形態について図を参照して説明する。
[システム構成]
図1は、本実施形態に係る映像生成装置1の機能ブロックの構成例を示す図である。当該映像生成装置1は、主として、被写体抽出部(抽出部)11と、空間位置追跡部(検出部)12と、位置情報統合部(統合部)13と、奥行表現部(生成部)14と、フィードバック部(送信部)15と、を備える。
[被写体抽出部]
被写体抽出部11は、カメラと、被写体抽出装置(例えば、PC;Personal Computer)と、を備えて構成される。被写体抽出部11は、所定パラメータを用いて、当該カメラで所定空間内を撮影した映像から被写体領域を抽出する。
被写体抽出部11は、撮影された映像を複製し、一方の映像について、当該映像の被写体領域以外を指定色C1(例えば、黒)で塗りつぶし、被写体領域のみをカラーで残した被写体抽出映像を生成する。
被写体抽出部11は、他方の映像について、当該映像の被写体領域を指定色C2(例えば、白)で塗りつぶし、被写体領域以外を指定色C3(例えば、黒)で塗りつぶした画像位置情報を生成する。
被写体抽出部11は、上記被写体抽出映像を奥行表現部14に出力し、上記画像位置情報を位置情報統合部13とフィードバック部15にそれぞれ出力する。
被写体抽出部11は、フィードバック部15から後述のフィードバック情報を受信した場合、上記所定パラメータの値を調整(変更)する。
被写体抽出部11が被写体抽出時に用いる所定パラメータは、例えば、閾値パラメータ、エッジ量パラメータである。被写体抽出部11は、閾値パラメータによって、被写体領域の過抽出・未抽出のトレードオフを調整可能である。被写体抽出部11は、エッジ量パラメータによって、被写体領域を複数に分割したり、複数の被写体領域を1つの被写体領域として抽出したりする、いわゆる分割され易さを調整可能である。
[空間位置追跡部]
空間位置追跡部12は、レーザー光によって物体表面上の複数の点の3次元位置を点群として計測する空間形状計測装置(例えば、LiDAR;Light Detection and Ranging)と、空間形状計測装置によって計測された点群から物体を追跡するトラッキング装置(例えば、PC;Personal Computer)と、を備えて構成される。空間形状計測装置は、被写体抽出部11のカメラに併設又は隣接設置され、当該カメラが撮影する所定空間内の被写体を物体として計測する。
空間位置追跡部12は、所定パラメータを用いて、空間形状計測装置によって計測された点群の3次元位置計測データをトラッキング装置によってクラスタリングすることで物体を検出・追跡(トラッキング)し、当該物体にラベル(識別情報)を付与する。
空間位置追跡部12は、点群の3次元位置計測データを用いて、当該物体の3次元位置情報(例えば、重心位置、奥行位置)と3次元形状情報(例えば、3次元空間中の外接矩形の頂点の座標)を算出する。当該3次元位置情報及び当該3次元形状情報は、当該物体の3次元空間位置を示す。
空間位置追跡部12は、追跡した物体の位置座標を変換することで、被写体抽出部11の画像座標上における当該物体の2次元位置情報(例えば、画像上での外接矩形の頂点の座標)を算出する。
空間位置追跡部12は、上記ラベル、上記3次元位置情報、上記3次元形状情報、上記2次元位置情報を、空間位置情報として、位置情報統合部13とフィードバック部15にそれぞれ出力する。
空間位置追跡部12は、フィードバック部15から後述のフィードバック情報を受信した場合、上記所定パラメータの値を調整(変更)する。
空間位置追跡部12が物体の空間位置追跡時に用いる所定パラメータは、例えば、ノイズ除去パラメータ、クラスタリングパラメータである。空間位置追跡部12は、ノイズ除去パラメータによって、ノイズ除去の強度を調整可能である。空間位置追跡部12は、クラスタリングパラメータによって、物体として検出する点群の密集度、点の数、外れ値の除去等の度合いを調整可能である。
尚、ノイズ除去パラメータを用いて行うノイズ除去の方法としては、例えば、移動平均を用いた方法がある。当該方法の場合、ノイズ除去パラメータは、移動平均フレーム数である。具体的な移動平均の処理方法は、まず、過去のノイズ除去前の空間位置情報を記憶しておく。所定フレームにおいて、指定された移動平均フレーム数分の過去のノイズ除去前の空間位置情報の平均を計算し、計算した値を当該所定フレームにおけるノイズ除去後の空間位置情報とする。
[位置情報統合部]
位置情報統合部13は、位置情報統合装置(例えば、PC;Personal Computer)を備えて構成される。
位置情報統合部13は、後述の手法1-手法3のうちいずれかを用いて、被写体抽出部11からの画像位置情報と、空間位置追跡部12からの空間位置情報(ラベル、3次元位置情報、3次元形状情報、2次元位置情報)と、を統合する。
具体的には、位置情報統合部13は、画像位置情報と空間位置情報内の2次元位置情報との重なり具合から、画像位置情報内の被写体領域と空間位置情報内のラベルとを対応付ける。これにより、位置情報統合部13は、画像位置情報内の被写体領域に対して、空間位置情報内の2次元位置情報、3次元位置情報、3次元形状情報を関連付ける。
ここで、画像位置情報内の被写体領域と空間位置情報内の2次元位置情報とを関連付けることで、被写体(物体)の位置の精度を向上できるという効果がある。通常、奥行感のある映像において、被写体の位置は、空間位置追跡部12の空間形状計測装置で計測された3次元位置計測データが用いられる。しかし、当該3次元位置計測データより得られる空間位置情報内の2次元位置情報にはノイズが混入し易く、当該ノイズの影響により被写体の位置にズレが発生する可能性がある。
そこで、ノイズが混入しやすい空間位置情報内の2次元位置情報に対して、ノイズが混入しにくい画像位置情報内の被写体領域を関連付け、奥行感のある映像において当該画像位置情報内の被写体領域の位置を用いることで、空間位置情報のみを使用する場合に比べて被写体(物体)の位置の精度を向上可能となり、奥行表現映像のブレをより確実に低減可能となる。
位置情報統合部13は、後述の手法1-手法3に記載するように、画像位置情報内の被写体領域と空間位置情報内の2次元位置情報に基づく物体の2次元領域との重畳度に応じて、ラベルを対応付ける被写体領域を決定する。
位置情報統合部13は、画像位置情報と空間位置情報とを統合した統合位置情報を奥行表現部14とフィードバック部15にそれぞれ出力する。
[位置情報統合の手法]
位置情報統合部13は、画像位置情報と空間位置情報内の2次元位置情報とが互いに重なる領域の割合を基準とする手法1を用いる。また、位置情報統合部13は、人物以外のノイズの混入に対処するため、互いに重なる領域の面積を基準とする手法2を用いる。位置情報統合部13は、手法3として、設定ファイルを用いて手法1と手法2を手動で切り替えて用いてもよいし、手法1と手法2を自動で切り替えて用いてもよい。
(手法1)
手法1は、空間位置情報内の2次元位置情報に対して、最も重なるエリアの割合が大きな被写体領域にラベルを紐付ける手法である。
まず、位置情報統合部13は、画像位置情報に含まれる被写体の輪郭の座標群を検出し、当該輪郭内の面積sを計算する。例えば、同一ラベルにラベリングされる候補として2つの被写体領域が検出された場合、位置情報統合部13は、当該2つの候補被写体領域の面積s1,s2をそれぞれ計算する。
次に、位置情報統合部13は、当該画像位置情報に対応する空間位置情報に含まれるラベル領域に対して、当該2つの候補被写体領域がそれぞれ重なる各重複エリアの重複面積s1’,s2’をそれぞれ算出する。
最後に、位置情報統合部13は、当該2つの候補被写体領域について、各重複エリアの重複面積s1’,s2’を各候補被写体領域の面積s1,s2でそれぞれ除算することにより、各候補被写体領域の面積sに対する重複面積s’の割合(s1’/s1,s2’/s2)を求め、最も大きい割合の候補被写体領域に対して空間位置情報のラベルを割り当てる。
これにより、図2(a)に示すように、例えば、候補被写体領域1(area1)の重複面積s’の割合が20%、候補被写体領域2(area2)の重複面積s’の割合が50%の場合、ラベル1(label1)は候補被写体領域2に対してのみ紐付けられる。
一方、図2(b)に示すように、s1’/s1=s2’/s2の場合、位置情報統合部13は、2つの候補被写体領域1,2を同一被写体領域12として扱い、当該同一被写体領域12に対してラベル1を割り当てる。
その他、図2(c)に示すように、1つの候補被写体領域1が2つの矩形2次元領域の各領域に含まれる場合、位置情報統合部13は、当該1つの候補被写体領域1を別々の被写体領域1として当該別々の被写体領域1に各矩形2次元領域のラベル1,2をそれぞれ割り当てる。
手法1によれば、画像位置情報と空間位置情報において、1つのラベルに対して複数の候補被写体領域が対応する場合、最も重なる領域の割合が大きな候補被写体領域にラベルを紐付けるので、画像位置情報の被写体領域に対して空間位置情報のラベルを正しく関連付けることができ、画像位置情報での被写体の位置情報と空間位置情報の被写体の位置情報を正しく組み合わせることができる。その結果、正しい組み合わせの位置情報を統合することが可能となり、被写体の3次元位置情報の精度を向上できる。
(手法2)
次に、手法2の動作について説明する。手法2は、空間位置情報内の2次元位置情報に対して、最も重なるエリアの面積が大きな被写体領域にラベルを紐付ける手法である。
まず、位置情報統合部13は、画像位置情報に含まれる被写体の輪郭の座標群を検出する。そして、位置情報統合部13は、当該画像位置情報に対応する空間位置情報を取得し、検出していた被写体の輪郭の座標群を用いて、取得した空間位置情報に含まれる枠線内の矩形2次元領域に対して、2つの候補被写体領域がそれぞれ重なる各重複エリアの重複面積s1’,s2’をそれぞれ算出する。
次に、位置情報統合部13は、当該2つの候補被写体領域について、図3(a)に示すように、s1’,s2’で最も大きい面積の候補被写体領域に対して空間位置情報のラベルを割り当てる。一方、s1’=s2’の場合、位置情報統合部13は、2つの候補被写体領域1,2を統合した被写体領域12に対してラベル1を割り当てる。
その他、図3(b)に示すように、2つの候補被写体領域1,2の各全エリアが2つの矩形2次元領域の各領域に含まれ、s1’/s1=s2’/s2=100%となる場合にも、位置情報統合部13は、当該2つの候補被写体領域1,2を同一被写体領域12として扱い、当該同一被写体領域12に対して各矩形2次元領域のラベル1,2をそれぞれ割り当てる。
その他、図3(c)に示すように、1つの候補被写体領域1が2つの矩形2次元領域の各領域に含まれる場合、位置情報統合部13は、当該1つの候補被写体領域1を別々の被写体領域1として当該別々の被写体領域1に各矩形2次元領域のラベル1,2をそれぞれ割り当てる。
以上より、手法2によれば、画像位置情報と空間位置情報において、1つのラベルに対して複数の候補被写体領域が対応する場合、最も重なるエリアの面積が大きな候補被写体領域にラベルを紐付けるので、画像位置情報の被写体領域に対して空間位置情報のラベルを正しく関連付けることができ、画像位置情報での被写体の位置情報と空間位置情報の被写体の位置情報を正しく組み合わせることができる。その結果、正しい組み合わせの位置情報を統合することが可能となり、被写体の3次元位置情報の精度を向上できる。
(手法3)
次に、手法3の動作について説明する。手法3は、手法1と手法2のラベリング手法を切り替える手法である。通常は手法1を用いてラベリングを行い、ノイズと思われるエリアが検出された場合に手法2に切り替え、ノイズと思われる被写体領域をラベリング対象から除去する。
まず、位置情報統合部13は、画像位置情報に含まれる2つの候補被写体領域の輪郭の座標群をそれぞれ検出し、当該2つの候補被写体領域の面積s1,s2をそれぞれ計算する。
次に、位置情報統合部13は、2つの候補被写体領域のうちいずれかの面積が閾値A以下であるか否か、2つの候補被写体領域の面積差が閾値B以上であるか否かを判定する。そして、いずれの候補被写体領域の面積も閾値A以下でない場合、かつ、2つの候補被写体領域の面積差が閾値B以上でない場合、位置情報統合部13は、ステップAへ進む。一方、いずれかの候補被写体領域の面積が閾値A以下である場合、又は、2つの候補被写体領域の面積差が閾値B以上である場合、位置情報統合部13は、ステップBへ進む。
ステップA;
位置情報統合部13は、2つの候補被写体領域をノイズ領域でないとみなし、重なる領域の割合を基準にした手法1を用いてラベリングする。
ステップB;
位置情報統合部13は、閾値A以下の面積を持つ候補被写体領域をノイズ領域とみなし、重なる領域の面積を基準とした手法2を用いてラベリングする。また、被写体領域同士の面積差を計算し、面積差の絶対値が閾値B以上である場合に小さい面積を持つ方の被写体領域をノイズ領域とみなしてもよい。被写体領域の大きさが他の被写体領域と比べて著しい差がある場合は、ノイズである可能性が高いからである。
以上より、手法3によれば、画像位置情報にノイズ領域が含まれる場合、重なる領域の割合を基準にした手法1から、重なる領域の面積を基準とした手法2に切り替えるので、画像位置情報の被写体領域に対して空間位置情報のラベルをより正しく関連付けることができ、被写体の3次元位置情報の精度を更に向上できる。
[奥行表現部]
奥行表現部14は、奥行表現処理装置(例えば、PC;Personal Computer)と、表示装置と、を備えて構成される。当該表示装置は、例えば、参考文献1に記載のようなハーフミラーを用いた空中像表示装置である。参考文献1は、例えば、「井阪、外2名、“競技空間を取り囲んで観戦する“Kirari! for Arena””、NTT技術ジャーナル、Vol.30、No.10、2018年10月、p.21-p.24」である。
具体的には、奥行表現部14は、位置情報統合部13からの統合位置情報と、被写体抽出部11からの被写体抽出映像とを用いて、非特許文献1に記載された方法によって当該被写体抽出映像を加工し、奥行表現映像を生成する。より具体的には、奥行表現部14は、被写体の奥行位置に応じた視点変換を行うことにより、当該被写体抽出映像及び当該被写体抽出映像の位置を調整する。これにより、奥行表現部14は、所定パラメータを用いて映像の奥行度を調整可能な奥行表現映像であって、統合位置情報(画像位置情報、空間位置情報(ラベル、3次元位置情報、3次元形状情報、2次元位置情報))が関連付けられた被写体領域のみの奥行表現映像を生成する。
奥行表現部(奥行表現処理装置)14は、当該奥行表現映像を表示装置に表示するとともに、フィードバック部15に出力する。
奥行表現部14は、フィードバック部15から後述のフィードバック情報を受信した場合、上記所定パラメータを調整(変更)する。
奥行表現部14が奥行表現部に用いる所定パラメータは、例えば、奥行感パラメータである。奥行表現部14は、奥行感パラメータによって、観察者が受ける奥行感の強さを調整可能である。
[フィードバック部]
フィードバック部15は、奥行表現部14からの奥行表現映像を用いて、当該奥行表現映像内の被写体領域のブレを検出・評価し、当該評価の結果に基づき当該ブレの原因を解析する。
フィードバック部15は、被写体抽出部11からの画像位置情報、空間位置追跡部12からの空間位置情報(ラベル、3次元位置情報、3次元形状情報、2次元位置情報)、位置情報統合部13からの統合位置情報を用いて、上記奥行表現映像の被写体領域に生じたブレを低減(解消・抑制)するための方法を示すフィードバック情報を生成し、当該フィードバック情報を被写体抽出部11、空間位置追跡部12、奥行表現部14のうちいずれか1つ以上に送信する。
[ブレの検出・評価方法]
フィードバック部15は、例えば、奥行表現映像の隣り合うフレーム間で被写体領域の対応付けを行い、当該対応位置の変化を測定してブレ候補量とする。対応付けの方法については、例えば、既存のパターンマッチング、特徴点抽出等を用いる方法がある。その他、1つの被写体領域に対して複数の対応点が取得される場合、ブレ候補量としては、例えば、重心(平均値)を使用する方法、最大値、最小値を使用する方法がある。
そして、フィードバック部15は、ブレ候補量の変化の頻度、変化の幅、特定の変化の継続時間をもとに、被写体領域がブレている否かを判定する。判定方法については、例えば、変化の頻度、幅、継続時間がそれぞれ指定値以上の場合、ブレていると判定する方法がある。その他、変化の頻度、幅、継続時間を評価関数で評価して、例えば、頻度と幅が大きい場合、継続時間が短くてもブレていると判定する方法がある。
[フィードバック情報の生成方法]
フィードバック部15は、奥行表現映像内の被写体領域がブレていると判断した場合、ブレの原因に応じたフィードバック情報を生成する。例えば、以下のようなフィードバック情報の生成方法がある。
空間位置情報では物体は静止しているが、統合位置情報では物体が振動している場合、被写体領域の輪郭の変化が頻繁だったり、大きかったりすることが原因と考えられる。そこで、この場合、フィードバック部15は、閾値パラメータ及びエッジ量パラメータを変更するフィードバック情報を生成して被写体抽出部11に送信する。
画像位置情報では被写体は静止しているが、奥行表現映像内の被写体領域の表示位置が緩やかに移動している場合、空間位置追跡部のノイズ除去の影響が原因考えられるため、フィードバック部15は、ノイズ除去パラメータを変更するフィードバック情報を生成して空間位置追跡部12に送信する。
画像位置情報では被写体は静止しているが、奥行表現映像内の被写体領域の表示位置がブレている場合、空間位置追跡部12におけるクラスタリングの誤差が原因と考えられるため、フィードバック部15は、クラスタリングパラメータを変更するフィードバック情報を生成して空間位置追跡部12に送信する。
画像位置情報では被写体の外接矩形は一定であるが、空間位置情報内の外接矩形の頂点の値の変化が頻繁だったり、大きかったりする場合、空間位置追跡部12におけるクラスタリングの誤差が原因と考えられるため、フィードバック部15は、ノイズ除去パラメータ及びクラスタリングパラメータを変更するフィードバック情報を生成して空間位置追跡部12に送信する。
被写体抽出部11と空間位置追跡部12のいずれのパラメータを変更してもブレを十分に抑制できない場合、フィードバック部15は、奥行感パラメータを変更するフィードバック情報を生成して奥行表現部14に送信する。
被写体の形状、色、位置、数等や、照明状態の変化等、環境が変化することで、ブレの原因が緩和された場合、フィードバック部15は、変更していたパラメータを徐々に元に戻すフィードバック情報を生成して被写体抽出部11、空間位置追跡部12、奥行表現部14にそれぞれ送信する。
[映像生成装置の動作]
次に、映像生成装置1の映像生成方法の動作について説明する。図4は、本実施形態に係る映像生成装置1の処理フローを示す図である。
ステップS1;
被写体抽出部11は、閾値パラメータ、エッジ量パラメータを用いて、カメラで所定空間内を撮影した映像から被写体領域を抽出する。そして、被写体抽出部11は、当該被写体領域以外を指定色C1で塗りつぶし、当該被写体領域のみをカラーで残した被写体抽出映像を生成し、当該被写体抽出映像を奥行表現部14に出力する。また、被写体抽出部11は、当該被写体領域を指定色C2で塗りつぶし、当該被写体領域以外を指定色C3で塗りつぶした画像位置情報を生成し、当該画像位置情報を位置情報統合部13とフィードバック部15にそれぞれ出力する。
ステップS2;
空間位置追跡部12は、レーザー光によって所定空間内の物体表面上の複数の点の3次元位置を点群として計測し、ノイズ除去パラメータを用いて当該点群からノイズを除去するともに、クラスタリングパラメータを用いて当該点群をクラスタリングすることで物体を検出・追跡する。そして、空間位置追跡部12は、当該物体にラベルを付与するとともに、当該物体の3次元位置情報及び3次元形状情報を算出する。また、空間位置追跡部12は、当該物体の位置座標を変換することで、被写体抽出部11の画像座標上における物体の2次元位置情報を算出する。その後、空間位置追跡部12は、ラベル、3次元位置情報、3次元形状情報、2次元位置情報を、空間位置情報として、位置情報統合部13とフィードバック部15にそれぞれ出力する。
ステップS3;
位置情報統合部13は、画像位置情報と空間位置情報内の2次元位置情報との重なり具合から、画像位置情報内の被写体領域と空間位置情報内のラベルとを対応付けることにより、画像位置情報内の被写体領域に対して、空間位置情報内の2次元位置情報、3次元位置情報、3次元形状情報を関連付ける。そして、位置情報統合部13は、当該関連付けを行うことで画像位置情報と空間位置情報を統合した統合位置情報を生成し、当該統合位置情報を奥行表現部14とフィードバック部15にそれぞれ出力する。
ステップS4;
奥行表現部14は、統合位置情報と被写体抽出映像を用いて、奥行感パラメータを用いて映像の奥行度を調整可能な奥行表現映像であって、統合位置情報(画像位置情報、空間位置情報(ラベル、3次元位置情報、3次元形状情報、2次元位置情報))が関連付けられた被写体領域のみの奥行表現映像を生成し、当該奥行表現映像をフィードバック部15に出力する。
ステップS5;
フィードバック部15は、奥行表現映像を用いて、当該奥行表現映像内の被写体領域のブレを検出・評価し、当該評価の結果に基づき当該ブレの原因を解析する。そして、フィードバック部15は、画像位置情報、空間位置情報、統合位置情報を用いて、当該ブレを低減(解消・抑制)するための方法を示すフィードバック情報を生成し、当該フィードバック情報を被写体抽出部11、空間位置追跡部12、奥行表現部14のうちいずれか1つ以上に送信する。フィードバック情報とは、例えば、閾値パラメータ、エッジ量パラメータ、ノイズ除去パラメータ、クラスタリングパラメータ、奥行感パラメータの変更後の値、又は変更後の値にするための加算値、減算値等である。
ステップS6;
被写体抽出部11は、フィードバック部15から上記フィードバック情報を受信した場合、閾値パラメータ、エッジ量パラメータの値を変更する。空間位置追跡部12は、フィードバック部15から上記フィードバック情報を受信した場合、ノイズ除去パラメータ、クラスタリングパラメータの値を変更する。奥行表現部14は、フィードバック部15から上記フィードバック情報を受信した場合、奥行感パラメータを変更する。
以降、映像生成装置1は、ステップS1-S6を繰り返し実行する。即ち、ステップS5において、フィードバック部15は、“変更後のパラメータに基づく画像位置情報、空間位置情報、統合位置情報、奥行表現映像を用いてフィードバック情報を再生成し、当該再生成したフィードバック情報を被写体抽出部11、空間位置追跡部12、奥行表現部14のうちいずれか1つ以上に再送信する”というサイクルを繰り返し実行する。
[効果]
本実施形態によれば、映像生成装置1において、フィードバック部15が、奥行表現映像の被写体領域に生じたブレを低減(解消・抑制)するためのフィードバック情報を生成し、当該フィードバック情報を被写体抽出部11、空間位置追跡部12、奥行表現部14のうちいずれか1つ以上に送信し、被写体抽出部11、空間位置追跡部12、奥行表現部14は、上記フィードバック情報を受信した場合、ブレを抑制する方向へパラメータを調整するので、奥行感のある映像において被写体のブレを低減できる。
また、本実施形態によれば、映像生成装置1において、フィードバック部15が、調整後のパラメータに基づく画像位置情報、空間位置情報、統合位置情報、奥行表現映像を用いてフィードバック情報を再生成するというサイクルを繰り返し実行するので、奥行感のある映像において被写体のブレを更に低減できる。
また、本実施形態によれば、映像生成装置1において、位置情報統合部13が、被写体領域と物体の2次元領域との重畳度に応じて、ラベルを対応付ける被写体領域を決定するので、被写体領域に対してラベルを正しく関連付けることができ、奥行感のある映像において被写体のブレを更に低減できる。
[その他]
本実施形態に係る映像生成装置1は、CPU、メモリ、ハードディスク、入出力インタフェース、通信インタフェース等を備えたコンピュータで実現可能である。映像生成装置1は、本実施形態で処理するデータをメモリ等の記憶部に記憶し、当該データを読み出して利用する。また、当該映像生成装置1としてコンピュータを機能させるための映像生成プログラム、当該映像生成プログラムの記憶媒体の作成も可能である。
1…映像生成装置
11…被写体抽出部
12…空間位置追跡部
13…位置情報統合部
14…奥行表現部
15…フィードバック部

Claims (4)

  1. 閾値パラメータ及びエッジ量パラメータを用いて所定空間内の撮影映像から被写体領域を抽出する抽出部と、
    物体の点に関するノイズ除去パラメータ及びクラスタリングパラメータを用いて前記所定空間内の3次元位置計測データから物体を検出し、前記物体に識別情報を付与するとともに、前記3次元位置計測データを用いて前記物体の3次元空間位置を算出する検出部と、
    前記被写体領域と前記物体の識別情報とを対応付けることにより、前記被写体領域に対して前記3次元空間位置を関連付ける統合部と、
    奥行感パラメータを用いて映像の奥行度を調整可能であり、前記3次元空間位置が関連付けられた前記被写体領域のみの奥行表現映像を生成する生成部と、
    前記奥行表現映像の前記被写体領域に生じたブレの低減方法を示す情報を前記抽出部、前記検出部、前記生成部のうちいずれか1つ以上に送信する送信部と、を備え、
    前記抽出部は、
    前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記閾値パラメータ又は前記エッジ量パラメータの値を変更し、
    前記検出部は、
    前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記ノイズ除去パラメータ又は前記クラスタリングパラメータの値を変更し、
    前記生成部は、
    前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記奥行感パラメータの値を変更することを特徴とする映像生成装置。
  2. 前記統合部は、
    前記被写体領域と前記物体の3次元空間位置を座標変換して得られた前記物体の2次元領域との重畳度に応じて、前記物体の識別情報を対応付ける被写体領域を決定することを特徴とする請求項1に記載の映像生成装置。
  3. 映像生成装置で行う映像生成方法において、
    前記映像生成装置は、抽出部と、検出部と、統合部と、生成部と、送信部と、を備え、
    前記抽出部は、閾値パラメータ及びエッジ量パラメータを用いて所定空間内の撮影映像から被写体領域を抽出する抽出ステップを行い、
    前記検出部は、物体の点に関するノイズ除去パラメータ及びクラスタリングパラメータを用いて前記所定空間内の3次元位置計測データから物体を検出し、前記物体に識別情報を付与するとともに、前記3次元位置計測データを用いて前記物体の3次元空間位置を算出する検出ステップを行い、
    前記統合部は、前記被写体領域と前記物体の識別情報とを対応付けることにより、前記被写体領域に対して前記3次元空間位置を関連付ける統合ステップを行い、
    前記生成部は、奥行感パラメータを用いて映像の奥行度を調整可能であり、前記3次元空間位置が関連付けられた前記被写体領域のみの奥行表現映像を生成する生成ステップを行い、
    前記送信部は、前記奥行表現映像の前記被写体領域に生じたブレの低減方法を示す情報を前記抽出部、前記検出部、前記生成部のうちいずれか1つ以上に送信する送信ステップを行い、
    前記抽出ステップでは、
    前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記閾値パラメータ又は前記エッジ量パラメータの値を変更し、
    前記検出ステップでは、
    前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記ノイズ除去パラメータ又は前記クラスタリングパラメータの値を変更し、
    前記生成ステップでは、
    前記低減方法を示す情報を受信した場合、前記低減方法に基づき前記奥行感パラメータの値を変更することを特徴とする映像生成方法。
  4. 請求項3に記載の映像生成方法をコンピュータに実行させることを特徴とする映像生成プログラム。
JP2021521658A 2019-05-29 2019-05-29 映像生成装置、映像生成方法、及び映像生成プログラム Active JP7269515B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/021344 WO2020240737A1 (ja) 2019-05-29 2019-05-29 映像生成装置、映像生成方法、及び映像生成プログラム

Publications (2)

Publication Number Publication Date
JPWO2020240737A1 JPWO2020240737A1 (ja) 2020-12-03
JP7269515B2 true JP7269515B2 (ja) 2023-05-09

Family

ID=73553685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021521658A Active JP7269515B2 (ja) 2019-05-29 2019-05-29 映像生成装置、映像生成方法、及び映像生成プログラム

Country Status (3)

Country Link
US (1) US20220224872A1 (ja)
JP (1) JP7269515B2 (ja)
WO (1) WO2020240737A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022259492A1 (ja) * 2021-06-10 2022-12-15 日本電信電話株式会社 映像投影装置、映像投影方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174151A (ja) 2003-12-12 2005-06-30 Topcon Corp 三次元画像表示装置及び方法
JP2007240208A (ja) 2006-03-06 2007-09-20 Toyota Central Res & Dev Lab Inc 環境認識装置
JP2009042941A (ja) 2007-08-07 2009-02-26 Honda Motor Co Ltd 対象物種別判定装置、車両、対象物種別判定方法、並びに対象物種別判定用プログラム
JP2018067188A (ja) 2016-10-20 2018-04-26 日本電信電話株式会社 カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム
JP2018097588A (ja) 2016-12-13 2018-06-21 日本電信電話株式会社 3次元空間特定装置、方法、及びプログラム
JP2018124890A (ja) 2017-02-03 2018-08-09 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8213708B2 (en) * 2010-03-22 2012-07-03 Eastman Kodak Company Adjusting perspective for objects in stereoscopic images
US8873852B2 (en) * 2011-09-29 2014-10-28 Mediatek Singapore Pte. Ltd Method and apparatus for foreground object detection
US8831285B2 (en) * 2012-07-26 2014-09-09 Hewlett-Packard Development Company, L.P. Detecting objects with a depth sensor
US10514256B1 (en) * 2013-05-06 2019-12-24 Amazon Technologies, Inc. Single source multi camera vision system
US10475186B2 (en) * 2016-06-23 2019-11-12 Intel Corportation Segmentation of objects in videos using color and depth information
US10565786B1 (en) * 2016-06-30 2020-02-18 Google Llc Sensor placement interface
US10650488B2 (en) * 2016-08-11 2020-05-12 Teknologian Tutkimuskeskus Vtt Oy Apparatus, method, and computer program code for producing composite image
WO2019173672A1 (en) * 2018-03-08 2019-09-12 Simile Inc. Methods and systems for producing content in multiple reality environments
US10650531B2 (en) * 2018-03-16 2020-05-12 Honda Motor Co., Ltd. Lidar noise removal using image pixel clusterings
JP7062506B2 (ja) * 2018-05-02 2022-05-06 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN109191369B (zh) * 2018-08-06 2023-05-05 三星电子(中国)研发中心 2d图片集转3d模型的方法、存储介质和装置
US11423570B2 (en) * 2018-12-26 2022-08-23 Intel Corporation Technologies for fusing data from multiple sensors to improve object detection, identification, and localization

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174151A (ja) 2003-12-12 2005-06-30 Topcon Corp 三次元画像表示装置及び方法
JP2007240208A (ja) 2006-03-06 2007-09-20 Toyota Central Res & Dev Lab Inc 環境認識装置
JP2009042941A (ja) 2007-08-07 2009-02-26 Honda Motor Co Ltd 対象物種別判定装置、車両、対象物種別判定方法、並びに対象物種別判定用プログラム
JP2018067188A (ja) 2016-10-20 2018-04-26 日本電信電話株式会社 カメラ情報修正装置、カメラ情報修正方法、及びカメラ情報修正プログラム
JP2018097588A (ja) 2016-12-13 2018-06-21 日本電信電話株式会社 3次元空間特定装置、方法、及びプログラム
JP2018124890A (ja) 2017-02-03 2018-08-09 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石井 陽子,Kirari! Tracker:LiDARと深層学習エンジンを用いたリアルタイム特定人物追跡システムの検討,映像情報メディア学会2017年冬季大会講演予稿集,2017年12月13日,Vol.2017

Also Published As

Publication number Publication date
US20220224872A1 (en) 2022-07-14
JPWO2020240737A1 (ja) 2020-12-03
WO2020240737A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
US10373380B2 (en) 3-dimensional scene analysis for augmented reality operations
US8379969B2 (en) Method for matching an object model to a three-dimensional point cloud
KR101870902B1 (ko) 영상 처리 장치 및 영상 처리 방법
EP2600309B1 (en) Foreground subject detection
US20200380711A1 (en) Method and device for joint segmentation and 3d reconstruction of a scene
US9019267B2 (en) Depth mapping with enhanced resolution
US10043278B2 (en) Method and apparatus for reconstructing 3D face with stereo camera
JP7184050B2 (ja) 符号化装置、符号化方法、復号装置、および復号方法
KR20200060194A (ko) 차선들의 깊이값을 예측하는 방법, 3차원 차선들을 출력하는 방법 및 그 장치
KR20120003232A (ko) 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법
KR20110064622A (ko) 티오에프 카메라를 이용한 3차원 에지 추출 방법 및 장치
TW202037169A (zh) 基於視訊的點雲壓縮的區塊分段的方法及裝置
JP2010044438A (ja) 特徴抽出装置、特徴抽出方法、画像処理装置、及び、プログラム
KR100813168B1 (ko) 사전 모양 정보를 이용한 디지털 영상에서의 물체를추출하기 위한 방법 및 상기 방법을 수행하는 시스템
KR101125061B1 (ko) Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법
KR20060021001A (ko) 개체인지를 이용한 Marker-less 증강현실과 복합현실 응용시스템 및 그 방법
CN115880662A (zh) 利用异类传感器的协同作用进行自主驾驶的3d目标检测方法
CN103942756A (zh) 一种深度图后处理滤波的方法
JP7269515B2 (ja) 映像生成装置、映像生成方法、及び映像生成プログラム
Srikakulapu et al. Depth estimation from single image using defocus and texture cues
EP3723365A1 (en) Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
CN107515844B (zh) 字体设置方法、装置及移动设备
Xu et al. Kinect-based easy 3d object reconstruction
JP2015033047A (ja) 複数カメラを用いた奥行き推定装置
JP7271115B2 (ja) 画像処理装置、背景画像の生成方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7269515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150